腾讯云太不要脸了, token plan 上 glm5.1 和 minimax-m2.7,但是 coding plan 不上
真的脸都不要了啊,都是用户还能这样歧视的啊
Max - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第28页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 804 篇相关文章 · 第 28 / 41 页
真的脸都不要了啊,都是用户还能这样歧视的啊
我的网页对话是一直在qwen的官网使用各个模型的,之前qwen3 3.5都一直这么用过来了,包括前段时间qwen-3.6 plus都用的好好的。今天想到qwen3.6-max早就发布了,就切换到max问了一个问题。结果它的回答里还参杂着俄文,我是真的第一次见,这是用什么语料训练,
我260422购买尼区CLaude Max全流程记录 省流 :买尼区Timon虚拟卡¥285 → 入金$85×汇率7.25=¥616 → 买5x=$77 → 如果封号退款到Timon卡 → 重注册尼区苹果id → 重绑这张卡 → 无限循环 → 卡号如果报废就$5重开一张 考虑美区
你们官方的GLM能用吗,我MAX版本,现在token都吐不出来了,高峰卡成这样,不给个说法吗? 18 个帖子 - 10 位参与者 阅读完整话题
今天感觉额度烧得太别快,这几天都是正常工作,前几天5小时窗口都跑满,平均每天花费200刀,今天也是像往常正常使用,使用ccusage查看,才52刀,这正常吗? 1 个帖子 - 1 位参与者 阅读完整话题
如图,是苹果发送过来的邮件,不是Claude 又遇到这种情况的吗?我该怎么办~ (难道是买到了黑礼品卡…) 1 个帖子 - 1 位参与者 阅读完整话题
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
封号到是没有,就是Pro额度不够用,所以才进行升级,订阅成功是开心的,订阅成功后下一步是KYC认证,人麻了,果然没有进行认证Max无法使用,如果一直不认证,会影响Pro下月的订阅? 2 个帖子 - 2 位参与者 阅读完整话题
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
陆陆续续花了上万 RMB ,攒了点心得,也攒了一堆困惑。 1 、MAX 和 HIGH 之间的边界,一直摸不太清。 不知道什么场景下用 HIGH 就够了。让它帮我调个版式,HIGH 确实 OK ,但聊着聊着就会延伸到架构、流程优化——那这时候我是不是得立马切 MAX ?大家遇到这种
刚刚看到的,广东移动手机的用户可以在中国移动app上免费白嫖一个月免费的minimax2.5模型。是叫一个移动智算包的东西。 支持OpenAI api协议的模型及 Minimal 2.5模型,一个月最多可请求45000次,广州移动手机用户真是有福了,可以白嫖它了! 3 个帖子 -
我的观察结论:ccusage等各种的计费并不准确。官方max 20x订阅里缓存读写要么全都不花钱,要么就是缓存写的token在统计时换算到官方统计的out部分? 以4月17日Opus4.7的用量作为记录,我对比了ccusage的计费和claude官方的消耗(都是UTC时区统计)。
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
陆陆续续花了上万 RMB ,攒了点心得,也攒了一堆困惑。 1 、MAX 和 HIGH 之间的边界,一直摸不太清。 不知道什么场景下用 HIGH 就够了。让它帮我调个版式,HIGH 确实 OK ,但聊着聊着就会延伸到架构、流程优化——那这时候我是不是得立马切 MAX ?大家遇到这种
陆陆续续花了上万 RMB ,攒了点心得,也攒了一堆困惑。 1 、MAX 和 HIGH 之间的边界,一直摸不太清。 不知道什么场景下用 HIGH 就够了。让它帮我调个版式,HIGH 确实 OK ,但聊着聊着就会延伸到架构、流程优化——那这时候我是不是得立马切 MAX ?大家遇到这种
陆陆续续花了上万 RMB ,攒了点心得,也攒了一堆困惑。 1 、MAX 和 HIGH 之间的边界,一直摸不太清。 不知道什么场景下用 HIGH 就够了。让它帮我调个版式,HIGH 确实 OK ,但聊着聊着就会延伸到架构、流程优化——那这时候我是不是得立马切 MAX ?大家遇到这种
陆陆续续花了上万 RMB ,攒了点心得,也攒了一堆困惑。 1 、MAX 和 HIGH 之间的边界,一直摸不太清。 不知道什么场景下用 HIGH 就够了。让它帮我调个版式,HIGH 确实 OK ,但聊着聊着就会延伸到架构、流程优化——那这时候我是不是得立马切 MAX ?大家遇到这种
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),