glm-5.1 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn

glm-5.1 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 51 篇相关文章 · 第 2 / 3 页

[程序员] glm-5.1, kimi-k2.6 在 code arena React 项目上排名 5 和 6,是不是真的好用?

真的假的?

tech v2ex.com 2026-05-02 07:38:05+08:00

[程序员] glm-5.1, kimi-k2.6 在 code arena React 项目上排名 5 和 6,是不是真的好用?

真的假的?

tech v2ex.com 2026-05-02 07:38:05+08:00

简单的测试了deepseek v4 pro、glm-5.1、glm-5.0、gpt-5.5 修改bug,我也是懵了

项目是一个比较大的项目,因为一个函数调用顺序导致出现的bug,使用相同的提示词描述bug和现象,gpt-5.5,4分48秒成功确认问题并修复,deepseek v4 pro 也不知道在墨迹思考啥,46分钟成功确认问题并修复,glm-5.1和glm-5.0就是瞎分析一通,说的头头是

tech linux.do 2026-04-29 18:29:35+08:00

谁才是8卡H200服务器的终极归宿,GLM-5.1-FP8 vs Kimi-2.6 vs ... ?

目前有一台闲置 H200(显存141Gb)*8 的服务器,想部署本地模型体验一波,目前考虑的有2个,GLM-5.1-FP8和Kimi-2.6,有佬深度使用过哪个更强一些吗,或者还有其他模型推荐吗 模型 架构 专家数 参数量和激活 模型权重 HuggingFace 链接 Kimi

tech linux.do 2026-04-29 17:18:26+08:00

GLM-5.1在非高峰期1倍活动 延长到6月底!

我很清楚的记得之前是4月30日~ 好多佬友们还在在高峰期体验过3倍的消耗速度极其恐怖,担心非高峰期调用也翻倍可咋办,现在延长到6月底了! 13 个帖子 - 13 位参与者 阅读完整话题

tech linux.do 2026-04-28 02:30:49+08:00

求稳定 GLM-5.1 接口推荐

目前在用 OpenCode Go 的 GLM-5.1 套餐,整体响应速度和稳定性都不错,体验挺好。 但用量消耗很快,才使用一周就已经耗掉 65%~70% 额度,眼看就要不够用了。 之前也试过百度、火山引擎的相关套餐,同样是跑 GLM-5 ,体验很差,基本没法正常使用。智谱官网的

tech www.v2ex.com 2026-04-27 17:58:16+08:00

求稳定 GLM-5.1 接口推荐

目前在用 OpenCode Go 的 GLM-5.1 套餐,整体响应速度和稳定性都不错,体验挺好。 但用量消耗很快,才使用一周就已经耗掉 65%~70% 额度,眼看就要不够用了。 之前也试过百度、火山引擎的相关套餐,同样是跑 GLM-5 ,体验很差,基本没法正常使用。智谱官网的

tech www.v2ex.com 2026-04-27 16:58:16+08:00

求稳定 GLM-5.1 接口推荐

目前在用 OpenCode Go 的 GLM-5.1 套餐,整体响应速度和稳定性都不错,体验挺好。 但用量消耗很快,才使用一周就已经耗掉 65%~70% 额度,眼看就要不够用了。 之前也试过百度、火山引擎的相关套餐,同样是跑 GLM-5 ,体验很差,基本没法正常使用。智谱官网的

tech www.v2ex.com 2026-04-27 15:58:16+08:00

[程序员] 求稳定 GLM-5.1 接口推荐

目前在用 OpenCode Go 的 GLM-5.1 套餐,整体响应速度和稳定性都不错,体验挺好。 但用量消耗很快,才使用一周就已经耗掉 65%~70% 额度,眼看就要不够用了。 之前也试过百度、火山引擎的相关套餐,同样是跑 GLM-5 ,体验很差,基本没法正常使用。智谱官网的

tech v2ex.com 2026-04-27 15:35:13+08:00

[程序员] 求稳定 GLM-5.1 接口推荐

目前在用 OpenCode Go 的 GLM-5.1 套餐,整体响应速度和稳定性都不错,体验挺好。 但用量消耗很快,才使用一周就已经耗掉 65%~70% 额度,眼看就要不够用了。 之前也试过百度、火山引擎的相关套餐,同样是跑 GLM-5 ,体验很差,基本没法正常使用。智谱官网的

tech v2ex.com 2026-04-27 15:24:02+08:00

求稳定 GLM-5.1 接口推荐

目前在用 OpenCode Go 的 GLM-5.1 套餐,整体响应速度和稳定性都不错,体验挺好。 但用量消耗很快,才使用一周就已经耗掉 65%~70% 额度,眼看就要不够用了。 之前也试过百度、火山引擎的相关套餐,同样是跑 GLM-5 ,体验很差,基本没法正常使用。智谱官网的

tech www.v2ex.com 2026-04-27 15:24:02+08:00

火山方舟coding plan的GLM-5.1疑似掺水,更像GLM-4.7

听说火山的Coding Plan有GLM-5.1,我又一直都是GLM-5.1的重度用户,果断就去购买了200的月套餐,但是从切换成火山的glm-5.1后,感觉明显降智,沟通一个问题,根本不去读代码也不分析,就是一顿乱改,感觉像是之前用glm-4.7的感觉。我刚开始觉得可能只是错觉

tech linux.do 2026-04-26 13:12:49+08:00

火山的Coding Plan,为什么指定了glm-5.1,可是用量里排前面的都是其他模型?

不理解,明明制定了模型为 glm-5.1,怎么大量消耗都是其他模型的?排第一的是它自家的豆包。 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-25 23:21:15+08:00

glm-5.1 3d 魔方简要测试

从上面两篇帖子继续 Deepseek v4 pro 3d魔方简要测试 国产替代 使用 cherry studio 客户端, 未设置系统提示词, 思考等级:auto 提示词: 你是一名精通图形学算法与 Web 交互的前端专家。请仅用一个 HTML 文件,基于 Three.js (E

tech linux.do 2026-04-24 16:11:46+08:00

GLM-5.1网页版这是啥情况啊

如图所示,这是何意味啊,在循环了非常久之后,他居然还能圆回来虽然最后什么也没返回 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-23 23:25:48+08:00

腾讯qclaw可以用GLM-5.1

很久没打开了,刚刚打开更新发现有新模型可以换了,送的4000万token变成积分了现在 有800积分不知道能用多久 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-23 20:32:31+08:00

Kimi k2.6 在arena.ai coding排名第六,于glm-5.1水平相当

真没必要抢glm-5.1了 5 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-23 13:50:51+08:00

腾讯ima支持glm-5.1,知识库还支持api交互

测试了几次,思考时间挺长的,可能是满血版的 ai支持对知识库做检索操作,如果是不需要改动文件的一次性任务效果应该不错 或许可以结合api达到类似code agent的相关,只是编译和测试要另外完成 4 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-23 08:31:18+08:00

火山 coding plan 率先支持 glm-5.1 + Minimax M2.7 了,希望其他厂商赶紧跟进

今天看火山的 plan 升级到 glm5.1 和 minimax m2.7 了,有人测了速度如何咩?有长进吗? 之前用了一个季度的火山的lite,还凑合,下午有点慢。 现在该用京东的了,不过也就 glm5 能用,其他的也挤。 8 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-23 01:38:58+08:00

opus-4.7 ,gpt-5.4,glm-5.1 做逆向分析对比

最先开始用 glm-5.1 做逆向,做了几个小时卡那里 了,又换了 gpt-5.4,做了几个小时也卡那里,不得不搬出 opus-4.7,几十分钟就搞定了,还是 Claude 牛逼啊 12 个帖子 - 8 位参与者 阅读完整话题

tech linux.do 2026-04-22 23:14:10+08:00