M5 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第11页 - 钛刻科技 | TCTI.cn

M5 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第11页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 295 篇相关文章 · 第 11 / 15 页

[程序员] 腾讯云太不要脸了, token plan 上 glm5.1 和 minimax-m2.7,但是 coding plan 不上

真的脸都不要了啊,都是用户还能这样歧视的啊

tech v2ex.com 2026-04-22 21:59:47+08:00

[程序员] 腾讯云太不要脸了, token plan 上 glm5.1 和 minimax-m2.7,但是 coding plan 不上

真的脸都不要了啊,都是用户还能这样歧视的啊

tech v2ex.com 2026-04-22 21:53:39+08:00

[程序员] 腾讯云太不要脸了, token plan 上 glm5.1 和 minimax-m2.7,但是 coding plan 不上

真的脸都不要了啊,都是用户还能这样歧视的啊

tech v2ex.com 2026-04-22 21:36:45+08:00

腾讯云太不要脸了, token plan 上 glm5.1 和 minimax-m2.7,但是 coding plan 不上

真的脸都不要了啊,都是用户还能这样歧视的啊

tech www.v2ex.com 2026-04-22 21:35:04+08:00

为什么感觉hello2cc+glm5.1的文笔要比codex gpt5.4好不止一点

有佬友有同样的感觉吗?为啥在同一套全局提示词+用户提示词的情况下,用codex上的gpt5.4写出来的东西内容更加空洞、不连贯且ai味重呢(不是,而是 … 11 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-22 21:08:14+08:00

国内大模型,写代码优先推荐哪几个?glm5用着用着就超时了

国内大模型,写代码有推荐的吗,glm5用着用着就超时了,不知道哪些用着比较舒服 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-22 20:24:47+08:00

三星1dnm DRAM良品率未达标 或导致HBM5E推迟量产

最近有消息人士透露, 三星基于1dnm制程(第七代 10nm 级别工艺)的 DRAM 芯片在试产阶段良品率低于预期。三星已计划无限期推迟大规模量产,直至良品率达到既定目标。 为此,三星可能会全面审查工艺流程,以进一步提升良品率。 按照原计划, 三星拟将1dnm工艺制造的DRAM芯

tech plink.anyfeeder.com 2026-04-22 18:35:19+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 18:18:42+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 18:18:42+08:00

不是为资本说话. 但是GLM5.1全量部署一个至少要几十万成本吧

rt, 首先声明我不懂行, 都是在站内看到的 根据我看到的信息, 我认为几十万成本估计全天不间断蹬估计也就够十几个人最高档套餐同时用, 哪怕是原价最贵一个人也只是469, 10个4690,20个都不到一万, 回本都要几十个月了 说白了几十万的设备一个月顶天估计也就能挣一两万还不是

tech linux.do 2026-04-22 18:03:25+08:00

想换个国产模型长期配合着用

有没有深度使用 kimi2.6 和 glm5.1 的?哪个套餐能平替 gpt5.4(free),deepseek 一直没出留个坑作为推理模型。另外我对前端要求低…主要要会说人话、会主动调各种 skill、cli 工具、coding 后 fix bug 能接近 gpt 就行了。 8

tech linux.do 2026-04-22 18:00:05+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 17:51:07+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 17:42:58+08:00

kimi k2.6和glm5.1 哪个更胜一筹,更接近opus的水平

k2.6 glm5.1 点击以查看投票。 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-22 17:30:07+08:00

大混乱时期最后的狂欢结束,寻找替代品,glm5.1怎么样?

glm5.1现在这么强了么,有没有佬友用过的,体感如何,目前在用gpt5.4-xhigh,比5.4强么? 穷哥们有穷哥们的玩法,5.1真的这么强的话,plus到期后,准备整free号池和5.1搭配着用. 6 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-22 17:09:43+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 16:26:12+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 15:59:09+08:00

国产模型任重道远,调用api浏览网页耗不起,硅基流动账单爆表了

把硅基流动的glm5.1模型,接到了claude code,然后叫他去browser-use的github仓库浏览一下安装说明,我懒得动手,原本以为没多少消耗的,结果也就一两秒时间,甚至可以说一瞬间弹出提示余额没了 他大概是想把整个仓库的文件通读一遍?要不要这么实诚 原本账户余额

tech linux.do 2026-04-22 15:44:43+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 15:39:22+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 15:35:47+08:00