OMO中是否可以加入deepseekv4 为西西弗斯
各位佬友,我现在手上有GLM5.1,kimik2.6,gpt5.5 请问哪一个更适合当西西弗斯,或者指挥者?我想看deepseekv4的世界知识好像不错,不知道如何发挥他的长处,有没有佬友尝试过了,可以交流一下吗? 我现在刚上手omo 3天,发现omo整体流程很重,模型不太愿意开
K2 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第3页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 124 篇相关文章 · 第 3 / 7 页
各位佬友,我现在手上有GLM5.1,kimik2.6,gpt5.5 请问哪一个更适合当西西弗斯,或者指挥者?我想看deepseekv4的世界知识好像不错,不知道如何发挥他的长处,有没有佬友尝试过了,可以交流一下吗? 我现在刚上手omo 3天,发现omo整体流程很重,模型不太愿意开
这两天我刷帖子刷得有点懵。 4 月 20 号,Kimi 悄悄放出 K2.6 。4 月 23 号,腾讯混元 3.0 开源,小米 MiMo-V2.5 同一天公测。4 月 24 号,DeepSeek V4 Preview 上线。大洋彼岸那边,GPT-5.5 、Claude Opus 4
这两天我刷帖子刷得有点懵。 4 月 20 号,Kimi 悄悄放出 K2.6 。4 月 23 号,腾讯混元 3.0 开源,小米 MiMo-V2.5 同一天公测。4 月 24 号,DeepSeek V4 Preview 上线。大洋彼岸那边,GPT-5.5 、Claude Opus 4
这两天我刷帖子刷得有点懵。 4 月 20 号,Kimi 悄悄放出 K2.6 。4 月 23 号,腾讯混元 3.0 开源,小米 MiMo-V2.5 同一天公测。4 月 24 号,DeepSeek V4 Preview 上线。大洋彼岸那边,GPT-5.5 、Claude Opus 4
这两天我刷帖子刷得有点懵。 4 月 20 号,Kimi 悄悄放出 K2.6 。4 月 23 号,腾讯混元 3.0 开源,小米 MiMo-V2.5 同一天公测。4 月 24 号,DeepSeek V4 Preview 上线。大洋彼岸那边,GPT-5.5 、Claude Opus 4
nvd.nist.gov NVD - CVE-2026-41651 BleepingComputer New ‘Pack2TheRoot’ flaw gives hackers root Linux access A new vulnerability dubbed Pack2T
我在qclaw里用的,minimax-m2.7的倍率是0.7,kimi-k2.6的倍率是1.6,glm-5.1的倍率是2.5,然后我让qclaw绑定一下企业微信的机器人,结果m2.7给我聊了7~8轮,硬是指挥着我到处兜圈子,就是没搞定,然后换glm5.1,一次指令就绑定了,虽然因
Key Takeaways 要点总结 Claude Opus 4.7 now leads at 71.00% overall accuracy, ahead of GPT 5.4 (67.42%), GPT 5.3 Codex(61.77%), and Claude Opus 4
推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径
推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径
推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径
推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径
推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径
我们为K2.6和GLM-5.1留下了一些空白条目,因为它们的API太忙了,无法返回 回答我们的问题。 Z畜还好意思回复 5 个帖子 - 4 位参与者 阅读完整话题
推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径
推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径
推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径
推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径
推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径
大佬们 最近用最新的gpustack2.1.2版本 搭配8个L40装了Qwen3.5-35B-A3B的vllm模型。 官方文档说可以靠thinking_budget参数来调节思考的长度,但是根本不好使啊.. system角色写提示词要求它精简思考过程也不行。。。。 没招了.. 1