glm5.1, kimi2.6, minimax2.7, mimo v2.5, deepseek v4,编程能力上的排名如何?
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
Deepseek - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第22页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 1306 篇相关文章 · 第 22 / 66 页
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
IT之家 4 月 27 日消息,腾讯云官方今日宣布 QClaw 发布 v0.2.14 版本更新。据介绍,这是该项目迄今为止力度最大的一次版本更新。 本次升级中,QClaw 正式接入支持 Hermes 框架,用户可创建并运行 Hermes 类型的 Agent,实现单一应用内同时运行
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
(话题已被作者删除) 1 个帖子 - 1 位参与者 阅读完整话题
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
我的应用里面内置了AI搜索,都是找一些冷门的东西,目前用grok挺好的,ds官网上目前用的还是v3,无法应证,想有个备用,有人试过吗? 1 个帖子 - 1 位参与者 阅读完整话题
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
平时一直用codex,这次使用opencode测试了下,看输出速度应该还行,最后的质量也不错,就是耗时比codex多太多,codex app我也没有使用多agent。 DeepSeek v4 pro - high: 16分钟 codex GPT5.5 - high: 3+2=5分
opencode 1.14.26 兼容了response_content参数的版本 deepseek v4 flash,默认参数 在opencode里面, 一个简单问题也可能让deepseek flash反复思考10分钟,甚至出现修改了一轮后,在下一轮重复思考的时候把上一个修改重
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
统计下除我之外是否有别人使用deepseek 工具和skill调用有问题,具体表现在:他知道自己有skill或者工具也知道是干嘛的什么时候用,然后他思考了他要用这个功skill,而实际上没调用. 目前是在一些rp用的bot上出现的,有群友反馈过cc上也有问题,已知和bot 框架没
使用CC配置DeepSeekV4完成一个不算太复杂但是工程量比较大的任务: 模型:deepseek-v4-pro 思考深度:max cost: ¥8.35 改动文件数:30 最终context:100% 耗时:约1h 相关截图: 评价: 这个价格能接受,如果换到opus要花¥30
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
我在 Claude Desktop App 开发者第三方接入其它公益站都没问题,但接入 https://api.deepseek.com/anthropic 后重启直接说对方拒绝,试着填入 https://api.deepseek.com 没有报错,但就是不回答问题,转圈打滚:s
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
DeepSeek V4对AI coding最大的价值就是真正可用的1M上下文,抹平了和御三家的差距。咱们平时AI coding,多追问几句,上下文就会很长,DeepSeek V4的价值就发挥出来了。 但现在看来,DeepSeek V4还有一些兼容性问题,例如: github.co
5 个帖子 - 3 位参与者 阅读完整话题