[程序员] glm-5.1, kimi-k2.6 在 code arena React 项目上排名 5 和 6,是不是真的好用?
真的假的?
glm-5.1 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 51 篇相关文章 · 第 2 / 3 页
真的假的?
真的假的?
项目是一个比较大的项目,因为一个函数调用顺序导致出现的bug,使用相同的提示词描述bug和现象,gpt-5.5,4分48秒成功确认问题并修复,deepseek v4 pro 也不知道在墨迹思考啥,46分钟成功确认问题并修复,glm-5.1和glm-5.0就是瞎分析一通,说的头头是
目前有一台闲置 H200(显存141Gb)*8 的服务器,想部署本地模型体验一波,目前考虑的有2个,GLM-5.1-FP8和Kimi-2.6,有佬深度使用过哪个更强一些吗,或者还有其他模型推荐吗 模型 架构 专家数 参数量和激活 模型权重 HuggingFace 链接 Kimi
我很清楚的记得之前是4月30日~ 好多佬友们还在在高峰期体验过3倍的消耗速度极其恐怖,担心非高峰期调用也翻倍可咋办,现在延长到6月底了! 13 个帖子 - 13 位参与者 阅读完整话题
目前在用 OpenCode Go 的 GLM-5.1 套餐,整体响应速度和稳定性都不错,体验挺好。 但用量消耗很快,才使用一周就已经耗掉 65%~70% 额度,眼看就要不够用了。 之前也试过百度、火山引擎的相关套餐,同样是跑 GLM-5 ,体验很差,基本没法正常使用。智谱官网的
目前在用 OpenCode Go 的 GLM-5.1 套餐,整体响应速度和稳定性都不错,体验挺好。 但用量消耗很快,才使用一周就已经耗掉 65%~70% 额度,眼看就要不够用了。 之前也试过百度、火山引擎的相关套餐,同样是跑 GLM-5 ,体验很差,基本没法正常使用。智谱官网的
目前在用 OpenCode Go 的 GLM-5.1 套餐,整体响应速度和稳定性都不错,体验挺好。 但用量消耗很快,才使用一周就已经耗掉 65%~70% 额度,眼看就要不够用了。 之前也试过百度、火山引擎的相关套餐,同样是跑 GLM-5 ,体验很差,基本没法正常使用。智谱官网的
目前在用 OpenCode Go 的 GLM-5.1 套餐,整体响应速度和稳定性都不错,体验挺好。 但用量消耗很快,才使用一周就已经耗掉 65%~70% 额度,眼看就要不够用了。 之前也试过百度、火山引擎的相关套餐,同样是跑 GLM-5 ,体验很差,基本没法正常使用。智谱官网的
目前在用 OpenCode Go 的 GLM-5.1 套餐,整体响应速度和稳定性都不错,体验挺好。 但用量消耗很快,才使用一周就已经耗掉 65%~70% 额度,眼看就要不够用了。 之前也试过百度、火山引擎的相关套餐,同样是跑 GLM-5 ,体验很差,基本没法正常使用。智谱官网的
目前在用 OpenCode Go 的 GLM-5.1 套餐,整体响应速度和稳定性都不错,体验挺好。 但用量消耗很快,才使用一周就已经耗掉 65%~70% 额度,眼看就要不够用了。 之前也试过百度、火山引擎的相关套餐,同样是跑 GLM-5 ,体验很差,基本没法正常使用。智谱官网的
听说火山的Coding Plan有GLM-5.1,我又一直都是GLM-5.1的重度用户,果断就去购买了200的月套餐,但是从切换成火山的glm-5.1后,感觉明显降智,沟通一个问题,根本不去读代码也不分析,就是一顿乱改,感觉像是之前用glm-4.7的感觉。我刚开始觉得可能只是错觉
不理解,明明制定了模型为 glm-5.1,怎么大量消耗都是其他模型的?排第一的是它自家的豆包。 2 个帖子 - 2 位参与者 阅读完整话题
从上面两篇帖子继续 Deepseek v4 pro 3d魔方简要测试 国产替代 使用 cherry studio 客户端, 未设置系统提示词, 思考等级:auto 提示词: 你是一名精通图形学算法与 Web 交互的前端专家。请仅用一个 HTML 文件,基于 Three.js (E
如图所示,这是何意味啊,在循环了非常久之后,他居然还能圆回来虽然最后什么也没返回 1 个帖子 - 1 位参与者 阅读完整话题
很久没打开了,刚刚打开更新发现有新模型可以换了,送的4000万token变成积分了现在 有800积分不知道能用多久 1 个帖子 - 1 位参与者 阅读完整话题
真没必要抢glm-5.1了 5 个帖子 - 5 位参与者 阅读完整话题
测试了几次,思考时间挺长的,可能是满血版的 ai支持对知识库做检索操作,如果是不需要改动文件的一次性任务效果应该不错 或许可以结合api达到类似code agent的相关,只是编译和测试要另外完成 4 个帖子 - 2 位参与者 阅读完整话题
今天看火山的 plan 升级到 glm5.1 和 minimax m2.7 了,有人测了速度如何咩?有长进吗? 之前用了一个季度的火山的lite,还凑合,下午有点慢。 现在该用京东的了,不过也就 glm5 能用,其他的也挤。 8 个帖子 - 4 位参与者 阅读完整话题
最先开始用 glm-5.1 做逆向,做了几个小时卡那里 了,又换了 gpt-5.4,做了几个小时也卡那里,不得不搬出 opus-4.7,几十分钟就搞定了,还是 Claude 牛逼啊 12 个帖子 - 8 位参与者 阅读完整话题