M2.7 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn

M2.7 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 62 篇相关文章 · 第 1 / 4 页

[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 19:27:09+08:00

[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 18:27:09+08:00

[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 16:24:52+08:00

[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 16:10:34+08:00

[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 15:32:55+08:00

[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 15:17:40+08:00

[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 14:47:07+08:00

[程序员] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 14:36:38+08:00

deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech www.v2ex.com 2026-05-03 14:16:24+08:00

[程序员] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 14:16:24+08:00

分享自己的MiniMax-M2.7 API 【有效期至5月7日】

使用说明: https://platform.minimaxi.com/docs/token-plan/intro 支持模型: 不支持 M2.7-highspeed API key: sk-cp-fqFb-AN9YEMjOQI94zH5wv48kt5gc4REjJa0rCYPA2

tech linux.do 2026-05-02 10:41:57+08:00

在 Claude Code 中使用 NVIDIA Nim (Minimax-m2.7) API 出错:未找到模型错误

在 NVIDIA API 页面上,我免费获得了 Minimax API。我想知道是否可以在 Claude Code 中使用它。 我尝试过了,但是出现了这个错误: There's an issue with the selected model (minimaxai/mi

tech linux.do 2026-05-01 04:25:53+08:00

MiniMax M2.7日常

MiniMax M2.7: 你想怎么处理? 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-30 09:40:05+08:00

锐评一下 MiniMax M2.7

之前找国产替代于是买了 MiniMax 的 Plan,发现这模型根本不可用。 后来想找客服反馈发现根本没有渠道,于是一怒之下去他们 Github M2 的仓库下面发 Issue 怒喷 后来根据 Issue 评论区的情况,确实大家的情况和我很相似。 这几天看原来 Issue 下面又

tech linux.do 2026-04-29 15:56:39+08:00

deepseek v4 pro vs minimax m2.7

有佬深度使用过这两个模型吗,感觉minimax实际上不怎么好用,打算退订coding plan买v4算了,不过minimax可以看图和上网搜索,虽然在cc里面搜索的mcp老是不怎么好用 11 个帖子 - 11 位参与者 阅读完整话题

tech linux.do 2026-04-28 15:38:06+08:00

有佬在用nvidia的免费api吗?不响应啊

我就看着它免费扔到kelivo去没事聊聊天完,慢我能忍,但是像miniMax M2.7还有刚上的dsv4的俩,永远是不响应 但是我去它网页版对话一切正常还挺快,是nvidia api的问题吗? 7 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-04-26 22:01:50+08:00

DeepSeek V4 Flash是最强小模型吗??

主要是编程,酒馆实际体验,不止跑分。 类似参数的模型还有 Minimax M2.7(229B) Xiaomi Mimo 2.5 Flash(309B) Qwen 3.6 Plus(397B) 在这个级别的模型里,能是最强的吗? 7 个帖子 - 7 位参与者 阅读完整话题

tech linux.do 2026-04-25 08:35:59+08:00

为啥还有人在吹minimax-M2.7啊,说说我自己测试的感受

我在qclaw里用的,minimax-m2.7的倍率是0.7,kimi-k2.6的倍率是1.6,glm-5.1的倍率是2.5,然后我让qclaw绑定一下企业微信的机器人,结果m2.7给我聊了7~8轮,硬是指挥着我到处兜圈子,就是没搞定,然后换glm5.1,一次指令就绑定了,虽然因

tech linux.do 2026-04-24 21:27:24+08:00

这下minimax真成路边一条了

感觉 deepseek v4 flash 比 minimax m2.7 聪明还更便宜,要是有 coding plan 上了ds这 minimax 真要成啥了 12 个帖子 - 12 位参与者 阅读完整话题

tech linux.do 2026-04-24 17:54:50+08:00

IDEA 通义灵码 插件现在有MinMax-M2.7 /Kimi-K2.6

没用过 这两模型听说还可以 12 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-04-23 09:50:11+08:00