[程序员] glm-5.1, kimi-k2.6 在 code arena React 项目上排名 5 和 6,是不是真的好用?
真的假的?
GLM - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第3页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 611 篇相关文章 · 第 3 / 31 页
真的假的?
从 glm5.1这波太细节了! 继续讨论: 本话题始于5:02 TLDR 当然结尾有网站以及淘金小镇标准音质直链资源~ 一点一点说,中途到底经历了什么 上面话题分享了,最开始2点的时候兴致勃勃的打开了z.ai 洋洋洒洒的粘贴了豆包专家写的万字技术方案 然后水话题,摸鱼之类的 当终
我反复看了好几分钟才看明白时间戳这样标是因为需要显示翻译… 于是在要求里要求他合理处理该如何去展示翻译歌词的问题 结果他在思考过程中发现了细节: 理想情况下 中文句应该没有英文翻译的 那这种夹杂英文的中文句怎么办? 这是我没有发现,更不可能再想到的问题 glm5.1很细节了~ 3
用的是 claude cli ,中转是 axonhub 有跟我一样情况的佬友么? 1 个帖子 - 1 位参与者 阅读完整话题
正在制作全新一代GLM的二API,Hello GLM 目前已经完成工具调用+glm5+理论无限额度+无门槛。准备明天发,不知道大家需不需要。 我很需要(支持) 我不需要(中立) 没有意义(反对) 点击以查看投票。 7 个帖子 - 5 位参与者 阅读完整话题
有几个订阅方案佬们帮忙看下哪个划算 149的glm 199的kimi 两个土区gpt 刚好20刀 两个尼区claude pro 刚好20刀 两个Windsurf 学生号(每个号每月10刀刚好20刀) 4 个帖子 - 3 位参与者 阅读完整话题
最近薅到了mimo和glm的一些token想用来试试代码功能 目前主要是使用codex app,用codexmanager本地中转 想了解一下codex能不能使用第三方模型,请佬们指导一下 4 个帖子 - 3 位参与者 阅读完整话题
L油优先选择有GLM5.1或者Kimi-K2.6的,但需要要避雷字节的ARK方舟Plan,我买了一个季度结果踩坑了。第一个是限额,说是按次数实际上是Token,然后不同模型还要乘上高倍率系数,这些在我买之前都是没有说明的(现在加上了),经常跑一个任务还没跑完就到限额了。 第二个是
GLM新政第一天,我怎么没用就不动了呢? 一直不动30m 13s · ↓ 2 tokens) 1 个帖子 - 1 位参与者 阅读完整话题
3月入了L站后接触到了codex后,觉得以前使用古法chat模式做开发真的是太惨了,同时内心中压抑的很久的想法终于压制不住了,于是在4月19,创建了一个llm工程。工程的作用是什么呢,对,就是妄图在gpt的帮助下手搓一个llm。因为当时最强的开源国模,就是glm5.1,而且还是m
官方的微信群里天天说卡顿报错,买也买不到,想试试看效果怎么样
哈哈哈这次就不提glm5.1了毕竟发布早了点性能没人家好也正常。 剩下这仨各位佬友体验下来哪个好用呢? codex很聪明但是不给我做逆向,甚至直接把我脚本里的相关逻辑给删了,属实逆天。 所以考虑mimo/deepseek/kimi这三个+cc试试。 这两天试了试dsv4pro,有
火山的coding plan. 用GLM5(巨慢), SubAgent用的doubao-seed-2.0-code. 跑了一天的活, 最后咔嚓一下给删除了. 今天白干了. 还真是不能随便给accept edits on. 吸取教训吧… 脑壳疼. 3 个帖子 - 3 位参与者 阅读
现在主工作流就是glm5.1,但是上下文太小了,经常压缩,想看看dsv4pm怎么样 18 个帖子 - 9 位参与者 阅读完整话题
别人:普号,plus,team,education…… 我:Pro 就很。。。 别人: DeepSeek glm kimi 我:GPT Claude Gemini 就很。。。 别人: 我: 别人: 我: 别人: 我: 就很。。。 就很。。。 就很。。。 卧槽这个句式真是太好玩了
目前主力是claude 20x 搭配一个gpt20x ,glm用来做循环任务,还是有点不够,佬们有推荐的吗 12 个帖子 - 7 位参与者 阅读完整话题
还是非常不错的样子 终于修复了我手机的dpi会影响到画面尺寸的问题(会变成电脑比例 按钮&文字变得很小) 关键是终于能用5.1了 只支持网页版 应用没有 7 个帖子 - 6 位参与者 阅读完整话题
题主现在vibe主要在用GLM、Mimo、Qwen基座下的Claude Code。三者优先级依次递减,根据前一个的coding plan有没有击穿决定是否启用后一个。 这种情况下问题就很显然了,每次都要重配环境变量。 (因为三个模型base url就不一样,因此不能通过配sonn
自 3 月起,我们在 GLM-5 的线上监控和用户反馈中观察到三类异常现象: 乱码(garbled output)、复读(repetition),以及生僻字(rare character)。 大家常称之为 “降智”。 但由于我们并没有上线任何降低模型精度的优化, 所以问题变得扑朔
如何接到 vscode 里面 没有权限安装其他软件