[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
glm5 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 216 篇相关文章 · 第 1 / 11 页
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
之前试过CLIProxyAPI 接入某云平台glm5给codex用。今天没事看了看litellm,发现v1.83.14支持了,就测试了下。除了remote compact有问题,其他的使用还算正常。 # litellm_config.yaml model_list: - mode
从 glm5.1这波太细节了! 继续讨论: 本话题始于5:02 TLDR 当然结尾有网站以及淘金小镇标准音质直链资源~ 一点一点说,中途到底经历了什么 上面话题分享了,最开始2点的时候兴致勃勃的打开了z.ai 洋洋洒洒的粘贴了豆包专家写的万字技术方案 然后水话题,摸鱼之类的 当终
我反复看了好几分钟才看明白时间戳这样标是因为需要显示翻译… 于是在要求里要求他合理处理该如何去展示翻译歌词的问题 结果他在思考过程中发现了细节: 理想情况下 中文句应该没有英文翻译的 那这种夹杂英文的中文句怎么办? 这是我没有发现,更不可能再想到的问题 glm5.1很细节了~ 3
用的是 claude cli ,中转是 axonhub 有跟我一样情况的佬友么? 1 个帖子 - 1 位参与者 阅读完整话题
正在制作全新一代GLM的二API,Hello GLM 目前已经完成工具调用+glm5+理论无限额度+无门槛。准备明天发,不知道大家需不需要。 我很需要(支持) 我不需要(中立) 没有意义(反对) 点击以查看投票。 7 个帖子 - 5 位参与者 阅读完整话题
L油优先选择有GLM5.1或者Kimi-K2.6的,但需要要避雷字节的ARK方舟Plan,我买了一个季度结果踩坑了。第一个是限额,说是按次数实际上是Token,然后不同模型还要乘上高倍率系数,这些在我买之前都是没有说明的(现在加上了),经常跑一个任务还没跑完就到限额了。 第二个是
3月入了L站后接触到了codex后,觉得以前使用古法chat模式做开发真的是太惨了,同时内心中压抑的很久的想法终于压制不住了,于是在4月19,创建了一个llm工程。工程的作用是什么呢,对,就是妄图在gpt的帮助下手搓一个llm。因为当时最强的开源国模,就是glm5.1,而且还是m
官方的微信群里天天说卡顿报错,买也买不到,想试试看效果怎么样
哈哈哈这次就不提glm5.1了毕竟发布早了点性能没人家好也正常。 剩下这仨各位佬友体验下来哪个好用呢? codex很聪明但是不给我做逆向,甚至直接把我脚本里的相关逻辑给删了,属实逆天。 所以考虑mimo/deepseek/kimi这三个+cc试试。 这两天试了试dsv4pro,有
火山的coding plan. 用GLM5(巨慢), SubAgent用的doubao-seed-2.0-code. 跑了一天的活, 最后咔嚓一下给删除了. 今天白干了. 还真是不能随便给accept edits on. 吸取教训吧… 脑壳疼. 3 个帖子 - 3 位参与者 阅读