[程序员] 腾讯云太不要脸了, token plan 上 glm5.1 和 minimax-m2.7,但是 coding plan 不上
真的脸都不要了啊,都是用户还能这样歧视的啊
m5 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第11页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 295 篇相关文章 · 第 11 / 15 页
真的脸都不要了啊,都是用户还能这样歧视的啊
真的脸都不要了啊,都是用户还能这样歧视的啊
真的脸都不要了啊,都是用户还能这样歧视的啊
真的脸都不要了啊,都是用户还能这样歧视的啊
有佬友有同样的感觉吗?为啥在同一套全局提示词+用户提示词的情况下,用codex上的gpt5.4写出来的东西内容更加空洞、不连贯且ai味重呢(不是,而是 … 11 个帖子 - 5 位参与者 阅读完整话题
国内大模型,写代码有推荐的吗,glm5用着用着就超时了,不知道哪些用着比较舒服 3 个帖子 - 3 位参与者 阅读完整话题
最近有消息人士透露, 三星基于1dnm制程(第七代 10nm 级别工艺)的 DRAM 芯片在试产阶段良品率低于预期。三星已计划无限期推迟大规模量产,直至良品率达到既定目标。 为此,三星可能会全面审查工艺流程,以进一步提升良品率。 按照原计划, 三星拟将1dnm工艺制造的DRAM芯
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
rt, 首先声明我不懂行, 都是在站内看到的 根据我看到的信息, 我认为几十万成本估计全天不间断蹬估计也就够十几个人最高档套餐同时用, 哪怕是原价最贵一个人也只是469, 10个4690,20个都不到一万, 回本都要几十个月了 说白了几十万的设备一个月顶天估计也就能挣一两万还不是
有没有深度使用 kimi2.6 和 glm5.1 的?哪个套餐能平替 gpt5.4(free),deepseek 一直没出留个坑作为推理模型。另外我对前端要求低…主要要会说人话、会主动调各种 skill、cli 工具、coding 后 fix bug 能接近 gpt 就行了。 8
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
k2.6 glm5.1 点击以查看投票。 1 个帖子 - 1 位参与者 阅读完整话题
glm5.1现在这么强了么,有没有佬友用过的,体感如何,目前在用gpt5.4-xhigh,比5.4强么? 穷哥们有穷哥们的玩法,5.1真的这么强的话,plus到期后,准备整free号池和5.1搭配着用. 6 个帖子 - 3 位参与者 阅读完整话题
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
把硅基流动的glm5.1模型,接到了claude code,然后叫他去browser-use的github仓库浏览一下安装说明,我懒得动手,原本以为没多少消耗的,结果也就一两秒时间,甚至可以说一瞬间弹出提示余额没了 他大概是想把整个仓库的文件通读一遍?要不要这么实诚 原本账户余额
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),