deepseek-v4-flash/mimo-v2.5的js俄罗斯方块游戏对比
使用自己开发的 AQBot桌面客户端 来小测deepseek/mino的前端能力,都是用的默认的推理程度,然后搭配一样的skills,一样的prompt: Deepseek-v4-flash 最终Agent生成结果: Mimo-v2.5 最终Agent生成结果: 觉得谁更胜一筹~
MIMO - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 575 篇相关文章 · 第 1 / 29 页
使用自己开发的 AQBot桌面客户端 来小测deepseek/mino的前端能力,都是用的默认的推理程度,然后搭配一样的skills,一样的prompt: Deepseek-v4-flash 最终Agent生成结果: Mimo-v2.5 最终Agent生成结果: 觉得谁更胜一筹~
参加MiMo Orbit 计划送的api,第一次的时候它告诉我是Claude,我确定是mimo返回的,因为我刚添加的apikey,就问了这两个问题,扣了1500的token; 但我后面再测试,它又没问题了; 11 个帖子 - 11 位参与者 阅读完整话题
xiaomi MiMo Orbit计划都是 16亿token么? 我这里是2 亿啊,不是max月度,而是standard套餐啊,申请方式不对么? 3 个帖子 - 3 位参与者 阅读完整话题
领了激励计划的2亿token,马上用opencode试着做一个web app,功能自认为很简单直白: 构建一个图像对比看板应用。 技术栈: - React + TypeScript + Vite - Tailwind CSS 用于界面设计 - Zustand 用于状态管理 - F
感觉用起来思路不够发散,一遇到什么就问你要干啥,这长上下文下表现情况也不是很好。2api之后一直总结还有中断。 1 个帖子 - 1 位参与者 阅读完整话题
想问下各位佬友,mimo模型适合做什么。。。代码比不上codex,逆向比不了v4。。。另外还想问下因为平台的原因openclaw和爱马仕都用不了,wsl方面我还是小白。。。docker还需要镜像真难搞。。。先谢过了。 1 个帖子 - 1 位参与者 阅读完整话题
TLDR; 5 句内讲完。 1 ,官网的教程太旧了, https://platform.xiaomimimo.com/docs/en-US/integration/codex ,给 @openai/codex@0.80.0 ,这个用户体验一般。 2 ,介绍一下,我自己用 0.11
TLDR; 5 句内讲完。 1 ,官网的教程太旧了, https://platform.xiaomimimo.com/docs/en-US/integration/codex ,给 @openai/codex@0.80.0 ,这个用户体验一般。 2 ,介绍一下,我自己用 0.11
TLDR; 5 句内讲完。 1 ,官网的教程太旧了, https://platform.xiaomimimo.com/docs/en-US/integration/codex ,给 @openai/codex@0.80.0 ,这个用户体验一般。 2 ,介绍一下,我自己用 0.11
TLDR; 5 句内讲完。 1 ,官网的教程太旧了, https://platform.xiaomimimo.com/docs/en-US/integration/codex ,给 @openai/codex@0.80.0 ,这个用户体验一般。 2 ,介绍一下,我自己用 0.11
TLDR; 5 句内讲完。 1 ,官网的教程太旧了, https://platform.xiaomimimo.com/docs/en-US/integration/codex ,给 @openai/codex@0.80.0 ,这个用户体验一般。 2 ,介绍一下,我自己用 0.11
最近看到小米 MiMo 推出了一个 ORBIT 激励计划,抱着试一试的心态去申请了一下,没想到直接通过了,最后到账了 16 亿 tokens,确实有点香。 领取入口是: 100t.xiaomimimo.com Xiaomi MiMo Orbit 百万亿 Token 创造者激励计划
前两天填了mimo的问卷来着 看站里一个佬友发的焚决 不过好像完全没有给我发邮件呀 有没有佬一样的 我要再试一遍吗 9 个帖子 - 4 位参与者 阅读完整话题
TLDR; 5 句内讲完。 1 ,官网的教程太旧了, https://platform.xiaomimimo.com/docs/en-US/integration/codex ,给 @openai/codex@0.80.0 ,这个用户体验一般。 2 ,介绍一下,我自己用 0.11
TLDR; 5 句内讲完。 1 ,官网的教程太旧了, https://platform.xiaomimimo.com/docs/en-US/integration/codex ,给 @openai/codex@0.80.0 ,这个用户体验一般。 2 ,介绍一下,我自己用 0.11
TLDR; 5 句内讲完。 1 ,官网的教程太旧了, https://platform.xiaomimimo.com/docs/en-US/integration/codex ,给 @openai/codex@0.80.0 ,这个用户体验一般。 2 ,介绍一下,我自己用 0.11
TLDR; 5 句内讲完。 1 ,官网的教程太旧了, https://platform.xiaomimimo.com/docs/en-US/integration/codex ,给 @openai/codex@0.80.0 ,这个用户体验一般。 2 ,介绍一下,我自己用 0.11
TLDR; 5 句内讲完。 1 ,官网的教程太旧了, https://platform.xiaomimimo.com/docs/en-US/integration/codex ,给 @openai/codex@0.80.0 ,这个用户体验一般。 2 ,介绍一下,我自己用 0.11
我今天晚上本来正常地调自己的agent,修一点skill,但是突然一轮工具调用中有非常诡异的内容出现,这难道就是训练污染吗? 可以看到,前面的工具调用还正常的,突然开始给我聊“ulw yolo v8训练自己的数据集有样本不平衡的问题吗”,我去检查了api请求的具体内容,确实就是突
我搞到了 MIMO 的 token plan 后,扔给 OH-MY-PI 里的 GLM 5.1 ,让它帮我配置进去。 然后这货把里面之前配置的所有的 API 都干没了。 包括它自己。 GLM来源是一个佬友的公益站,跟这事没什么关系。 被朋友狠狠笑话了,那让佬友们也笑一笑吧。 7