[程序员] glm-5.1, kimi-k2.6 在 code arena React 项目上排名 5 和 6,是不是真的好用?
真的假的?
k2.6 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 96 篇相关文章 · 第 2 / 5 页
真的假的?
L油优先选择有GLM5.1或者Kimi-K2.6的,但需要要避雷字节的ARK方舟Plan,我买了一个季度结果踩坑了。第一个是限额,说是按次数实际上是Token,然后不同模型还要乘上高倍率系数,这些在我买之前都是没有说明的(现在加上了),经常跑一个任务还没跑完就到限额了。 第二个是
KIMI越狱提示词分享(概率,由旧版改良) ENI Smol Kimi K2.6 Mandatory thinking always is always as yourself at step 0! (it’s me LO, just wanted to remind you o
请问一下kimik2.5,kimik2.6,GPT5.5,deepseek 4.0系列 哪个更情感细腻?越狱后效果如何? 大家测试结果怎么样? 1 个帖子 - 1 位参与者 阅读完整话题
DeepSeek |DeepSeek-V4 系列 月之暗面 Kimi|Kimi K2.6 智谱 AI|GLM-5.1 阿里通义千问|Qwen3.6-Max-Preview / Qwen3.6-Plus 字节跳动豆包 / Seed|Seed2.0系列 小米|MiMo-V2.5系列
5 个帖子 - 5 位参与者 阅读完整话题
5 个帖子 - 5 位参与者 阅读完整话题
如图,最近在用hermes搭配opencode go订阅的k2.6帮我写文档,但是今天不知道怎么就提示rate limit error了,但是我看订阅界面显示还有额度的 我记得现在opencode go的k2.6应该也是3x额度,有佬友知道这是为什么吗 4 个帖子 - 4 位参与
各位佬友,我现在手上有GLM5.1,kimik2.6,gpt5.5 请问哪一个更适合当西西弗斯,或者指挥者?我想看deepseekv4的世界知识好像不错,不知道如何发挥他的长处,有没有佬友尝试过了,可以交流一下吗? 我现在刚上手omo 3天,发现omo整体流程很重,模型不太愿意开
这两天我刷帖子刷得有点懵。 4 月 20 号,Kimi 悄悄放出 K2.6 。4 月 23 号,腾讯混元 3.0 开源,小米 MiMo-V2.5 同一天公测。4 月 24 号,DeepSeek V4 Preview 上线。大洋彼岸那边,GPT-5.5 、Claude Opus 4
这两天我刷帖子刷得有点懵。 4 月 20 号,Kimi 悄悄放出 K2.6 。4 月 23 号,腾讯混元 3.0 开源,小米 MiMo-V2.5 同一天公测。4 月 24 号,DeepSeek V4 Preview 上线。大洋彼岸那边,GPT-5.5 、Claude Opus 4
这两天我刷帖子刷得有点懵。 4 月 20 号,Kimi 悄悄放出 K2.6 。4 月 23 号,腾讯混元 3.0 开源,小米 MiMo-V2.5 同一天公测。4 月 24 号,DeepSeek V4 Preview 上线。大洋彼岸那边,GPT-5.5 、Claude Opus 4
这两天我刷帖子刷得有点懵。 4 月 20 号,Kimi 悄悄放出 K2.6 。4 月 23 号,腾讯混元 3.0 开源,小米 MiMo-V2.5 同一天公测。4 月 24 号,DeepSeek V4 Preview 上线。大洋彼岸那边,GPT-5.5 、Claude Opus 4
我在qclaw里用的,minimax-m2.7的倍率是0.7,kimi-k2.6的倍率是1.6,glm-5.1的倍率是2.5,然后我让qclaw绑定一下企业微信的机器人,结果m2.7给我聊了7~8轮,硬是指挥着我到处兜圈子,就是没搞定,然后换glm5.1,一次指令就绑定了,虽然因
Key Takeaways 要点总结 Claude Opus 4.7 now leads at 71.00% overall accuracy, ahead of GPT 5.4 (67.42%), GPT 5.3 Codex(61.77%), and Claude Opus 4
推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径
推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径
推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径
推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径
推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径