[程序员] glm5.1, kimi2.6, minimax2.7, mimo v2.5, deepseek v4,编程能力上的排名如何?
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
5.1 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第8页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 335 篇相关文章 · 第 8 / 17 页
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
IT之家 4 月 26 日消息,海韵(Seasonic)推出了 2026 款 Focus GX-1000 ATX 3.1 Sakura Edition(樱花版)限量版电源,附赠 12V-2×6 粉白双拼色编织线。 它属于是 2024 年发布的 Vertex Sakura GX-1
之前用GLM 5.1 一个指令动不动就能跑30分钟!换team,一个指令也干了十几分钟,但是token也干的太快了。吃不消。 image|654x285 3 个帖子 - 3 位参与者 阅读完整话题
听说火山的Coding Plan有GLM-5.1,我又一直都是GLM-5.1的重度用户,果断就去购买了200的月套餐,但是从切换成火山的glm-5.1后,感觉明显降智,沟通一个问题,根本不去读代码也不分析,就是一顿乱改,感觉像是之前用glm-4.7的感觉。我刚开始觉得可能只是错觉
各位佬友,我现在手上有GLM5.1,kimik2.6,gpt5.5 请问哪一个更适合当西西弗斯,或者指挥者?我想看deepseekv4的世界知识好像不错,不知道如何发挥他的长处,有没有佬友尝试过了,可以交流一下吗? 我现在刚上手omo 3天,发现omo整体流程很重,模型不太愿意开
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
明明没有5.1模型为啥报错,之前还成功的,奇怪了呀,大佬帮看看谢谢~ 2 个帖子 - 2 位参与者 阅读完整话题
试了几个L站佬友的公益站,几乎所有的GLM5.1模型都不显示回复(或者只回复hi,你好之类的对话),但是控制台显示调用成功,有佬知道是什么情况嘛 7 个帖子 - 5 位参与者 阅读完整话题
不理解,明明制定了模型为 glm-5.1,怎么大量消耗都是其他模型的?排第一的是它自家的豆包。 2 个帖子 - 2 位参与者 阅读完整话题
最新出来这么多新模型,大家都用过了吗?都如何呀有佬说一下不? 7 个帖子 - 5 位参与者 阅读完整话题
佬友们,我使用的是opencode + glm5.1,,发给他(用 Python编写“用户手机号格式校验函数”,要求处理空值、非11 位数字、特殊字符等异常场景生成结果在phone build.py中 )为啥不直接生成写好的文件在本地呢? 1 个帖子 - 1 位参与者 阅读完整话
邀请码:HCEAD7 电报 @ fgvbt123
邀请码:HCEAD7 电报 @ fgvbt123
IT之家 4 月 25 日消息,据央视新闻,为满足旅客多样化旅游出行需求,国铁集团从 24 日起,推出一批旅游惠民服务新举措,让旅客出行更便捷,更优惠。 这批新举措首先突出消费让利和购票优惠。 5 月 10 日至 31 日期间,铁路 12306 客户端“铁路旅游”专区将发放 5.
我在qclaw里用的,minimax-m2.7的倍率是0.7,kimi-k2.6的倍率是1.6,glm-5.1的倍率是2.5,然后我让qclaw绑定一下企业微信的机器人,结果m2.7给我聊了7~8轮,硬是指挥着我到处兜圈子,就是没搞定,然后换glm5.1,一次指令就绑定了,虽然因
你们GLM5.1喜欢用superpower吗? 以前用gpt5.4的时候很有计划,什么任务都开个子任务,而且有计划的进行,现在glm和opus好像都不理skills的 7 个帖子 - 4 位参与者 阅读完整话题
Opus太贵了, 找了个GLM5.1. 感觉能力比opus还强为什么感觉没人用一样 17 个帖子 - 16 位参与者 阅读完整话题
ollama cloud的GLM 5.1能够接入vscode copilot使用吗?我用了cloud模型,聊天框有输出,不能够直接修改项目代码。 2 个帖子 - 2 位参与者 阅读完整话题