GLM5.1 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第8页 - 钛刻科技 | TCTI.cn

GLM5.1 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第8页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 187 篇相关文章 · 第 8 / 10 页

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 16:26:12+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 15:59:09+08:00

国产模型任重道远,调用api浏览网页耗不起,硅基流动账单爆表了

把硅基流动的glm5.1模型,接到了claude code,然后叫他去browser-use的github仓库浏览一下安装说明,我懒得动手,原本以为没多少消耗的,结果也就一两秒时间,甚至可以说一瞬间弹出提示余额没了 他大概是想把整个仓库的文件通读一遍?要不要这么实诚 原本账户余额

tech linux.do 2026-04-22 15:44:43+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 15:39:22+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 15:35:47+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 14:39:33+08:00

[程序员] 热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech v2ex.com 2026-04-22 13:52:50+08:00

[程序员] 热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech v2ex.com 2026-04-22 13:41:59+08:00

[程序员] 热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech v2ex.com 2026-04-22 13:21:02+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 13:03:43+08:00

[程序员] 热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech v2ex.com 2026-04-22 13:03:43+08:00

[程序员] 热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech v2ex.com 2026-04-22 12:24:02+08:00

ollama cloud的glm5似乎也需要订阅才能用了

如题,前几天glm5.1调用显示需要订阅用户才能用,然后我就换成了glm5,今天发现glm5也需要订阅用户才能用了 5 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-22 12:07:48+08:00

[程序员] 热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech v2ex.com 2026-04-22 11:57:16+08:00

[程序员] 热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech v2ex.com 2026-04-22 11:57:16+08:00

[程序员] 热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech v2ex.com 2026-04-22 11:42:18+08:00

[程序员] 热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech v2ex.com 2026-04-22 11:28:38+08:00

看到火山新上glm5.1,立刻购买,结果429

如果有为了用glm想要购买的佬友,不建议购买了 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-22 09:45:48+08:00

openclaw接公益站gpt以外的模型无法调用工具

最近发现一个奇怪的现象,openclaw接三个不同公益站glm5.1、gemini、grok等模型都无法调用工具,其中glm5.1和gemini直接发类似这样的文本 <tool_call>exec](command=“cd ~/openclaw &&

tech linux.do 2026-04-22 08:08:31+08:00

火山方舟coding plan上线glm5.1与kimi2.6与minimax-m2.7

总算是上新了,马上都要过期了结果告诉我上线新模型了,不过火山非豆包模型之前用经常限流卡顿,之前kimi2.5就一直卡,用都用不了,这次看看非官模型使用体验如何 12 个帖子 - 7 位参与者 阅读完整话题

tech linux.do 2026-04-22 05:39:25+08:00