MINIMAX - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第7页 - 钛刻科技 | TCTI.cn

MINIMAX - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第7页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 249 篇相关文章 · 第 7 / 13 页

龙虾 VS Hermes 个人深度使用对比

我同时装了oc和Hermes,一样的模型(minimax 2.7),一样的soul.md,一样的skill。 场景一:一样的问题(关于skill中知识库的),oc的反馈往往很准,甚至还考虑到了边界问题,还有举例,而Hermes幻觉严重,经常回答内容完全不是根据skill中的内容。

tech linux.do 2026-04-26 11:43:06+08:00

glm5.1, kimi2.6, minimax2.7, mimo v2.5, deepseek v4,编程能力上的排名如何?

先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6

tech www.v2ex.com 2026-04-26 11:25:08+08:00

ccswitch在codex分类中配置minimax会出现404

最近刚订购了一个minimax的token plan,把apikey填上去发现,点击获取模型会出现不支持模型列表,就算手动填了MiniMax-M2.7还是会提醒提示404,这是ccswitch的问题还是minimax的问题,这minimax不还是他们家赞助商吗,怎么这个支持都有问

tech linux.do 2026-04-26 10:02:51+08:00

[问与答] 国内到底哪个 coding plan 能买

kimi 给的太少,glm 抢不到,minimax 除了便宜一无是处,难道只能 deepseek api 吗?

tech v2ex.com 2026-04-25 23:35:10+08:00

[问与答] 国内到底哪个 coding plan 能买

kimi 给的太少,glm 抢不到,minimax 除了便宜一无是处,难道只能 deepseek api 吗?

tech v2ex.com 2026-04-25 23:23:04+08:00

[问与答] 国内到底哪个 coding plan 能买

kimi 给的太少,glm 抢不到,minimax 除了便宜一无是处,难道只能 deepseek api 吗?

tech v2ex.com 2026-04-25 23:15:14+08:00

[问与答] 国内到底哪个 coding plan 能买

kimi 给的太少,glm 抢不到,minimax 除了便宜一无是处,难道只能 deepseek api 吗?

tech v2ex.com 2026-04-25 20:18:25+08:00

小白求问,cowork 软件,aionui 和 claude 相比的优缺点?

本人在工作中用 office 三件套比较多,之前一直 cc+minimax skill 的方式编辑,速度慢不说效果还不稳定。这两天看同事用 claude d esktop,发现效果很好 还稳定。 所以我在论坛上查了一下发现了瓦砾佬的 aionui,求问一下用过该产品的佬友们,在

tech linux.do 2026-04-25 17:57:23+08:00

DeepSeek V4 Flash是最强小模型吗??

主要是编程,酒馆实际体验,不止跑分。 类似参数的模型还有 Minimax M2.7(229B) Xiaomi Mimo 2.5 Flash(309B) Qwen 3.6 Plus(397B) 在这个级别的模型里,能是最强的吗? 7 个帖子 - 7 位参与者 阅读完整话题

tech linux.do 2026-04-25 08:35:59+08:00

为啥还有人在吹minimax-M2.7啊,说说我自己测试的感受

我在qclaw里用的,minimax-m2.7的倍率是0.7,kimi-k2.6的倍率是1.6,glm-5.1的倍率是2.5,然后我让qclaw绑定一下企业微信的机器人,结果m2.7给我聊了7~8轮,硬是指挥着我到处兜圈子,就是没搞定,然后换glm5.1,一次指令就绑定了,虽然因

tech linux.do 2026-04-24 21:27:24+08:00

这下minimax真成路边一条了

感觉 deepseek v4 flash 比 minimax m2.7 聪明还更便宜,要是有 coding plan 上了ds这 minimax 真要成啥了 12 个帖子 - 12 位参与者 阅读完整话题

tech linux.do 2026-04-24 17:54:50+08:00

MiniMax Token Plan 邀请码有佬发一下么,准备买一个

想买个年卡,各位佬推荐吗 17 个帖子 - 9 位参与者 阅读完整话题

tech linux.do 2026-04-24 00:24:20+08:00

求助定价佬们

rt,之前买了个minimax2.7的拼车,还有十几天吧,4500次的每5h,在l站被佬们帮了很多但是因为这个api是跟人拼的车所以不能直接发出来公用会被玩坏的,这个可以挂ldc么,在哪里挂啊,我挂点价看哪个佬需要给拍了吧,不过只提供apikey不提供别的任何东西 这个用来做龙虾

tech linux.do 2026-04-23 22:52:09+08:00

[问与答] MiniMax 和 Kimi 便宜的 coding plan 真的恶心啊

Kimi code 49 的 plan 5 小时不到 100 次请求,一下就用工光了,根本没法支撑使用,MiniMax 更恶心, 说是 1500 次 5 小时,结果成天 429 529 错误,想用的时候根本用不了,也根本没法发送 1500 次请求,这些看着划算的 code pla

tech v2ex.com 2026-04-23 14:47:43+08:00

请教如何推算模型部署需要的显存

如题,以模型minimax m2.5(原本权重,先不考虑量化)为例,如何知道这个模型具体需要多大的显存才可以部署? 另外,NPU还是GPU应该没多大区别吧,主要是看显存多少。 请佬们指条明路 12 个帖子 - 9 位参与者 阅读完整话题

tech linux.do 2026-04-23 13:57:31+08:00

中国移动Token Plan可以免费体验MiniMaxM2.5一个月

中国移动Token Plan可以免费体验MiniMaxM2.5一个月,有需要的可以去试试,App首页直接搜索Token进入。 感觉Hermes用这个回复好慢啊 6 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-23 12:56:01+08:00

生气,MINIMAX怎么又周限额了

之前用拼车的感觉很舒服,文字处理够用,自己打算买一个,发现有周限额了,感觉亏了一个亿。 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-23 11:11:49+08:00

foxcode疑似掺水

通过vscode的插件oai调用foxcode的gpt5.4,新对话第一次任务的时候显示minimax,问它什么模型的时候显示gpt 同一对话,问完模型之后再进行任务还是gpt5.4 7 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-04-23 10:53:58+08:00

[Token] 送 MiniMax2.7 codingplan [推广]

限两百个,先到先得,q 群 1328662

tech v2ex.com 2026-04-23 10:44:13+08:00

[Token] 送 MiniMax2.7 codingplan [推广]

限两百个,先到先得,q 群 1328662

tech v2ex.com 2026-04-23 10:11:24+08:00