mo - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第44页 - 钛刻科技 | TCTI.cn

mo - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第44页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 1375 篇相关文章 · 第 44 / 69 页

[程序员] glm5.1, kimi2.6, minimax2.7, mimo v2.5, deepseek v4,编程能力上的排名如何?

先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6

tech v2ex.com 2026-04-26 17:02:22+08:00

[程序员] glm5.1, kimi2.6, minimax2.7, mimo v2.5, deepseek v4,编程能力上的排名如何?

先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6

tech v2ex.com 2026-04-26 16:47:25+08:00

[程序员] glm5.1, kimi2.6, minimax2.7, mimo v2.5, deepseek v4,编程能力上的排名如何?

先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6

tech v2ex.com 2026-04-26 16:38:27+08:00

各位推荐一个 32G Macbook air M5 可以跑的 moe 模型

27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.

tech www.v2ex.com 2026-04-26 16:33:08+08:00

[Local LLM] 各位推荐一个 32G Macbook air M5 可以跑的 moe 模型

27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.

tech v2ex.com 2026-04-26 16:28:27+08:00

MOREFINE 魔方推出 G2 外置显卡:雷电 5/OCuLink 4.0x4 接口、内置 RTX 5060 Ti 16GB 桌面端

IT之家 4 月 26 日消息,MOREFINE 魔方现已在其海外官网上架 G2 外置显卡,内置 RTX 5060 Ti 桌面端显卡,配备 16GB GDDR7 显存,定价 1099 美元(IT之家注:现汇率约合 7530 元人民币),5 月 20 日起出货。 据介绍,这款外置显

tech www.ithome.com 2026-04-26 16:10:52+08:00

monica平替

佬友们请教一个问题。大家有没有推荐的monica、poe这类的ai聚合工具呢。我习惯多个模型生成结果,对比后采用。之间用的monica的max年度订阅,最近也更新了opus4.7,但是它context默认自动裁剪实在让人为难。我用ai进行复杂编程的时候不多,平时要处理一些长文本任

tech linux.do 2026-04-26 14:59:02+08:00

各位推荐一个 32G Macbook air M5 可以跑的 moe 模型

27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.

tech www.v2ex.com 2026-04-26 14:48:11+08:00

[分享创造] [开源] Hermes Agent 记忆系统一键安装包 hermes-memory-installer

给 Hermes Agent 写的记忆系统一键安装包。三层技能架构( Memory 注入 + Skill 自动挂载 + File 深度归档),底层用 SQLite FTS5 做全文检索,零侵入,30 秒装完。 自己做 AI Agent 踩了长期记忆的坑,把整套方案抽出来开源了。

tech v2ex.com 2026-04-26 13:02:15+08:00

OMO中是否可以加入deepseekv4 为西西弗斯

各位佬友,我现在手上有GLM5.1,kimik2.6,gpt5.5 请问哪一个更适合当西西弗斯,或者指挥者?我想看deepseekv4的世界知识好像不错,不知道如何发挥他的长处,有没有佬友尝试过了,可以交流一下吗? 我现在刚上手omo 3天,发现omo整体流程很重,模型不太愿意开

tech linux.do 2026-04-26 12:33:21+08:00

[程序员] glm5.1, kimi2.6, minimax2.7, mimo v2.5, deepseek v4,编程能力上的排名如何?

先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6

tech v2ex.com 2026-04-26 12:25:08+08:00

[Local LLM] 各位推荐一个 32G Macbook air M5 可以跑的 moe 模型

27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.

tech v2ex.com 2026-04-26 11:33:27+08:00

各位推荐一个 32G Macbook air M5 可以跑的 moe 模型

27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.

tech www.v2ex.com 2026-04-26 11:29:46+08:00

glm5.1, kimi2.6, minimax2.7, mimo v2.5, deepseek v4,编程能力上的排名如何?

先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6

tech www.v2ex.com 2026-04-26 11:25:08+08:00

[Local LLM] 各位推荐一个 32G Macbook air M5 可以跑的 moe 模型

27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.

tech v2ex.com 2026-04-26 10:57:35+08:00

codex 装了太多 skills 怎么办

codex 装了太多skills,提示如下: Exceeded skills context budget of 2%. All skill descriptions were removed and 123 additional skills were not included

tech linux.do 2026-04-26 10:53:51+08:00

Momenta R7 强化学习世界模型北京车展量产首发

IT之家 4 月 26 日消息,4 月 25 日,Momenta 于北京国际车展举办“ Momenta R7 ,物理 AI 序章”主题分享会,正式宣布 Momenta R7 强化学习世界模型实现量产首发。 分享会上,Momenta 合伙人、CEO 曹旭东深度拆解了物理 AI 的底

tech www.ithome.com 2026-04-26 10:43:49+08:00

[Local LLM] 各位推荐一个 32G Macbook air M5 可以跑的 moe 模型

27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.

tech v2ex.com 2026-04-26 10:38:59+08:00

[Local LLM] 各位推荐一个 32G Macbook air M5 可以跑的 moe 模型

27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.

tech v2ex.com 2026-04-26 10:23:40+08:00

[Local LLM] 各位推荐一个 32G Macbook air M5 可以跑的 moe 模型

27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.

tech v2ex.com 2026-04-26 09:57:43+08:00