GLM5.1 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第7页 - 钛刻科技 | TCTI.cn

GLM5.1 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第7页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 187 篇相关文章 · 第 7 / 10 页

腾讯云太不要脸了, token plan 上 glm5.1 和 minimax-m2.7,但是 coding plan 不上

真的脸都不要了啊,都是用户还能这样歧视的啊

tech www.v2ex.com 2026-04-23 01:43:45+08:00

[程序员] 腾讯云太不要脸了, token plan 上 glm5.1 和 minimax-m2.7,但是 coding plan 不上

真的脸都不要了啊,都是用户还能这样歧视的啊

tech v2ex.com 2026-04-23 01:24:46+08:00

[程序员] 腾讯云太不要脸了, token plan 上 glm5.1 和 minimax-m2.7,但是 coding plan 不上

真的脸都不要了啊,都是用户还能这样歧视的啊

tech v2ex.com 2026-04-22 23:36:14+08:00

[程序员] 腾讯云太不要脸了, token plan 上 glm5.1 和 minimax-m2.7,但是 coding plan 不上

真的脸都不要了啊,都是用户还能这样歧视的啊

tech v2ex.com 2026-04-22 23:31:55+08:00

[程序员] 腾讯云太不要脸了, token plan 上 glm5.1 和 minimax-m2.7,但是 coding plan 不上

真的脸都不要了啊,都是用户还能这样歧视的啊

tech v2ex.com 2026-04-22 22:45:00+08:00

[程序员] 腾讯云太不要脸了, token plan 上 glm5.1 和 minimax-m2.7,但是 coding plan 不上

真的脸都不要了啊,都是用户还能这样歧视的啊

tech v2ex.com 2026-04-22 22:45:00+08:00

[程序员] 腾讯云太不要脸了, token plan 上 glm5.1 和 minimax-m2.7,但是 coding plan 不上

真的脸都不要了啊,都是用户还能这样歧视的啊

tech v2ex.com 2026-04-22 22:31:23+08:00

[程序员] 腾讯云太不要脸了, token plan 上 glm5.1 和 minimax-m2.7,但是 coding plan 不上

真的脸都不要了啊,都是用户还能这样歧视的啊

tech v2ex.com 2026-04-22 21:59:47+08:00

[程序员] 腾讯云太不要脸了, token plan 上 glm5.1 和 minimax-m2.7,但是 coding plan 不上

真的脸都不要了啊,都是用户还能这样歧视的啊

tech v2ex.com 2026-04-22 21:53:39+08:00

[程序员] 腾讯云太不要脸了, token plan 上 glm5.1 和 minimax-m2.7,但是 coding plan 不上

真的脸都不要了啊,都是用户还能这样歧视的啊

tech v2ex.com 2026-04-22 21:36:45+08:00

腾讯云太不要脸了, token plan 上 glm5.1 和 minimax-m2.7,但是 coding plan 不上

真的脸都不要了啊,都是用户还能这样歧视的啊

tech www.v2ex.com 2026-04-22 21:35:04+08:00

为什么感觉hello2cc+glm5.1的文笔要比codex gpt5.4好不止一点

有佬友有同样的感觉吗?为啥在同一套全局提示词+用户提示词的情况下,用codex上的gpt5.4写出来的东西内容更加空洞、不连贯且ai味重呢(不是,而是 … 11 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-22 21:08:14+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 18:18:42+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 18:18:42+08:00

不是为资本说话. 但是GLM5.1全量部署一个至少要几十万成本吧

rt, 首先声明我不懂行, 都是在站内看到的 根据我看到的信息, 我认为几十万成本估计全天不间断蹬估计也就够十几个人最高档套餐同时用, 哪怕是原价最贵一个人也只是469, 10个4690,20个都不到一万, 回本都要几十个月了 说白了几十万的设备一个月顶天估计也就能挣一两万还不是

tech linux.do 2026-04-22 18:03:25+08:00

想换个国产模型长期配合着用

有没有深度使用 kimi2.6 和 glm5.1 的?哪个套餐能平替 gpt5.4(free),deepseek 一直没出留个坑作为推理模型。另外我对前端要求低…主要要会说人话、会主动调各种 skill、cli 工具、coding 后 fix bug 能接近 gpt 就行了。 8

tech linux.do 2026-04-22 18:00:05+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 17:51:07+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 17:42:58+08:00

kimi k2.6和glm5.1 哪个更胜一筹,更接近opus的水平

k2.6 glm5.1 点击以查看投票。 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-22 17:30:07+08:00

大混乱时期最后的狂欢结束,寻找替代品,glm5.1怎么样?

glm5.1现在这么强了么,有没有佬友用过的,体感如何,目前在用gpt5.4-xhigh,比5.4强么? 穷哥们有穷哥们的玩法,5.1真的这么强的话,plus到期后,准备整free号池和5.1搭配着用. 6 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-22 17:09:43+08:00