GLM - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第19页 - 钛刻科技 | TCTI.cn

GLM - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第19页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 617 篇相关文章 · 第 19 / 31 页

[程序员] 腾讯云太不要脸了, token plan 上 glm5.1 和 minimax-m2.7,但是 coding plan 不上

真的脸都不要了啊,都是用户还能这样歧视的啊

tech v2ex.com 2026-04-22 22:45:00+08:00

[程序员] 腾讯云太不要脸了, token plan 上 glm5.1 和 minimax-m2.7,但是 coding plan 不上

真的脸都不要了啊,都是用户还能这样歧视的啊

tech v2ex.com 2026-04-22 22:45:00+08:00

关于vertex赠金使用大模型的一些疑惑

我个人最近领取了300美刀的赠金,主要是想调用模型 我目前使用的是glm5,但是想问问还可以调用哪些模型?gemini这些可以吗? 以及用vertex赠金自定义部署和调api的区别是什么? 以及vertex薅羊毛的不足之处是什么呢 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-22 22:44:30+08:00

[程序员] 腾讯云太不要脸了, token plan 上 glm5.1 和 minimax-m2.7,但是 coding plan 不上

真的脸都不要了啊,都是用户还能这样歧视的啊

tech v2ex.com 2026-04-22 22:31:23+08:00

[程序员] 腾讯云太不要脸了, token plan 上 glm5.1 和 minimax-m2.7,但是 coding plan 不上

真的脸都不要了啊,都是用户还能这样歧视的啊

tech v2ex.com 2026-04-22 21:59:47+08:00

[程序员] 腾讯云太不要脸了, token plan 上 glm5.1 和 minimax-m2.7,但是 coding plan 不上

真的脸都不要了啊,都是用户还能这样歧视的啊

tech v2ex.com 2026-04-22 21:53:39+08:00

智谱(GLM)果然学习了阿里, 强制关闭了老用户套餐的自动续费

上个月才给老用户开了自动续费通道, 没想到这么快就顶不住了 盲猜 MiniMax 也快了

tech www.v2ex.com 2026-04-22 21:47:31+08:00

[程序员] 腾讯云太不要脸了, token plan 上 glm5.1 和 minimax-m2.7,但是 coding plan 不上

真的脸都不要了啊,都是用户还能这样歧视的啊

tech v2ex.com 2026-04-22 21:36:45+08:00

腾讯云太不要脸了, token plan 上 glm5.1 和 minimax-m2.7,但是 coding plan 不上

真的脸都不要了啊,都是用户还能这样歧视的啊

tech www.v2ex.com 2026-04-22 21:35:04+08:00

为什么感觉hello2cc+glm5.1的文笔要比codex gpt5.4好不止一点

有佬友有同样的感觉吗?为啥在同一套全局提示词+用户提示词的情况下,用codex上的gpt5.4写出来的东西内容更加空洞、不连贯且ai味重呢(不是,而是 … 11 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-22 21:08:14+08:00

智谱(GLM)果然学习了阿里, 强制关闭了老用户套餐的自动续费

上个月才给老用户开了自动续费通道, 没想到这么快就顶不住了 盲猜 MiniMax 也快了

tech www.v2ex.com 2026-04-22 20:47:31+08:00

智谱(GLM)果然学习了阿里, 强制关闭了老用户套餐的自动续费

上个月才给老用户开了自动续费通道, 没想到这么快就顶不住了 盲猜 MiniMax 也快了

tech www.v2ex.com 2026-04-22 20:47:31+08:00

智谱(GLM)果然学习了阿里, 强制关闭了老用户套餐的自动续费

上个月才给老用户开了自动续费通道, 没想到这么快就顶不住了 盲猜 MiniMax 也快了

tech www.v2ex.com 2026-04-22 20:34:49+08:00

国内大模型,写代码优先推荐哪几个?glm5用着用着就超时了

国内大模型,写代码有推荐的吗,glm5用着用着就超时了,不知道哪些用着比较舒服 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-22 20:24:47+08:00

GLM现在一个token都吐不出来了

你们官方的GLM能用吗,我MAX版本,现在token都吐不出来了,高峰卡成这样,不给个说法吗? 18 个帖子 - 10 位参与者 阅读完整话题

tech linux.do 2026-04-22 19:59:25+08:00

我也分享一下kimi-k2.6,glm-5.1,gpt-5.4和sonnet-4-6的python小项目对比

昨天看了 @smallmain 佬的k2.6真实项目评测,发现语言选择可能会造成结果不太一样,正好最近要开一个新项目,想着用不同模型来初始化一下对比看看。 我在的公司是个极其小众行业的公司,北美个位数的同行,全球不超20家同行,技术栈很杂乱,上古项目有delphi,foxpro,

tech linux.do 2026-04-22 18:45:57+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 18:18:42+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 18:18:42+08:00

不是为资本说话. 但是GLM5.1全量部署一个至少要几十万成本吧

rt, 首先声明我不懂行, 都是在站内看到的 根据我看到的信息, 我认为几十万成本估计全天不间断蹬估计也就够十几个人最高档套餐同时用, 哪怕是原价最贵一个人也只是469, 10个4690,20个都不到一万, 回本都要几十个月了 说白了几十万的设备一个月顶天估计也就能挣一两万还不是

tech linux.do 2026-04-22 18:03:25+08:00

想换个国产模型长期配合着用

有没有深度使用 kimi2.6 和 glm5.1 的?哪个套餐能平替 gpt5.4(free),deepseek 一直没出留个坑作为推理模型。另外我对前端要求低…主要要会说人话、会主动调各种 skill、cli 工具、coding 后 fix bug 能接近 gpt 就行了。 8

tech linux.do 2026-04-22 18:00:05+08:00