[程序员] 腾讯云太不要脸了, token plan 上 glm5.1 和 minimax-m2.7,但是 coding plan 不上
真的脸都不要了啊,都是用户还能这样歧视的啊
5.1 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第12页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 335 篇相关文章 · 第 12 / 17 页
真的脸都不要了啊,都是用户还能这样歧视的啊
真的脸都不要了啊,都是用户还能这样歧视的啊
真的脸都不要了啊,都是用户还能这样歧视的啊
真的脸都不要了啊,都是用户还能这样歧视的啊
真的脸都不要了啊,都是用户还能这样歧视的啊
真的脸都不要了啊,都是用户还能这样歧视的啊
有佬友有同样的感觉吗?为啥在同一套全局提示词+用户提示词的情况下,用codex上的gpt5.4写出来的东西内容更加空洞、不连贯且ai味重呢(不是,而是 … 11 个帖子 - 5 位参与者 阅读完整话题
昨天看了 @smallmain 佬的k2.6真实项目评测,发现语言选择可能会造成结果不太一样,正好最近要开一个新项目,想着用不同模型来初始化一下对比看看。 我在的公司是个极其小众行业的公司,北美个位数的同行,全球不超20家同行,技术栈很杂乱,上古项目有delphi,foxpro,
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
rt, 首先声明我不懂行, 都是在站内看到的 根据我看到的信息, 我认为几十万成本估计全天不间断蹬估计也就够十几个人最高档套餐同时用, 哪怕是原价最贵一个人也只是469, 10个4690,20个都不到一万, 回本都要几十个月了 说白了几十万的设备一个月顶天估计也就能挣一两万还不是
有没有深度使用 kimi2.6 和 glm5.1 的?哪个套餐能平替 gpt5.4(free),deepseek 一直没出留个坑作为推理模型。另外我对前端要求低…主要要会说人话、会主动调各种 skill、cli 工具、coding 后 fix bug 能接近 gpt 就行了。 8
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
k2.6 glm5.1 点击以查看投票。 1 个帖子 - 1 位参与者 阅读完整话题
glm5.1现在这么强了么,有没有佬友用过的,体感如何,目前在用gpt5.4-xhigh,比5.4强么? 穷哥们有穷哥们的玩法,5.1真的这么强的话,plus到期后,准备整free号池和5.1搭配着用. 6 个帖子 - 3 位参与者 阅读完整话题
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
把硅基流动的glm5.1模型,接到了claude code,然后叫他去browser-use的github仓库浏览一下安装说明,我懒得动手,原本以为没多少消耗的,结果也就一两秒时间,甚至可以说一瞬间弹出提示余额没了 他大概是想把整个仓库的文件通读一遍?要不要这么实诚 原本账户余额
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),