LM - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第3页 - 钛刻科技 | TCTI.cn

LM - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第3页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 885 篇相关文章 · 第 3 / 45 页

[程序员] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 14:36:38+08:00

deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech www.v2ex.com 2026-05-03 14:16:24+08:00

[程序员] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 14:16:24+08:00

列了一下国内的AI agent大模型,佬们现在最常用的是哪个呢?

当前最火的是下面几个: GLM-5.1 、 DeepSeek-V4 、 Kimi K2.6 、 MiniMax M2.7 、 通义千问 Qwen3 、 豆包 Seed 2.0 和 小米 MiMo V2.5 。 GLM-5.1 DeepSeek-V4 Kimi K2.6 MiniM

tech linux.do 2026-05-03 12:55:23+08:00

庆祝一下升3级,送智谱GLM Coding Plan体验卡5张 【速度真快,现在已无】

前两天买的glm pro,送了几张体验卡,自己用不着浪费了,给有需要的佬: 我在使用GLM Coding Plan,数小时内完成过去需要数周的开发工作,赠送你1张7天AI Coding体验卡,一起来用吧: 智谱AI开放平台 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-05-03 12:38:05+08:00

[Local LLM] 推荐一个 GPU 推理速度计算器, 可能方便买配件自建本地大模型的人用上

https://tps.bunai.cc/ranking?gpu=apple_m5_32g&ic=nvlink5

tech v2ex.com 2026-05-03 06:01:03+08:00

[Local LLM] github 看到一个项目, 3090 跑 27B, 129tps,最高 207tps

https://github.com/Luce-Org/lucebox-hub DFlash DDtree Qwen3.5 & Qwen3.6 27B GGUF on RTX 3090 First GGUF port of DFlash speculative decod

tech v2ex.com 2026-05-03 03:06:17+08:00

[Local LLM] github 看到一个项目, 3090 跑 27B, 129tps,最高 207tps

https://github.com/Luce-Org/lucebox-hub DFlash DDtree Qwen3.5 & Qwen3.6 27B GGUF on RTX 3090 First GGUF port of DFlash speculative decod

tech v2ex.com 2026-05-03 00:47:58+08:00

给大家看个发生在我身上的 AI 乐子

我搞到了 MIMO 的 token plan 后,扔给 OH-MY-PI 里的 GLM 5.1 ,让它帮我配置进去。 然后这货把里面之前配置的所有的 API 都干没了。 包括它自己。 GLM来源是一个佬友的公益站,跟这事没什么关系。 被朋友狠狠笑话了,那让佬友们也笑一笑吧。 7

tech linux.do 2026-05-02 22:55:30+08:00

华为云码道(CodeArts)GLM-5.1免费畅用--分享

华为云码道(CodeArts)GLM-5.1免费畅用,开启你的代码智能体。 5 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-05-02 22:42:12+08:00

[Local LLM] github 看到一个项目, 3090 跑 27B, 129tps,最高 207tps

https://github.com/Luce-Org/lucebox-hub DFlash DDtree Qwen3.5 & Qwen3.6 27B GGUF on RTX 3090 First GGUF port of DFlash speculative decod

tech v2ex.com 2026-05-02 22:14:54+08:00

[Local LLM] github 看到一个项目, 3090 跑 27B, 129tps,最高 207tps

https://github.com/Luce-Org/lucebox-hub DFlash DDtree Qwen3.5 & Qwen3.6 27B GGUF on RTX 3090 First GGUF port of DFlash speculative decod

tech v2ex.com 2026-05-02 21:05:12+08:00

Google 疑似在 Arena(竞技场) 秘密测试新版 Gemini 3.1 Flash:性能跃升,迫近Gemini 3.1 Pro

LMArena发现,一个标注为 Gemini 3 Flash 的模型出现频率异常增高。根据实际测试反馈,该模型的性能表现远超当前版本,甚至直逼 Gemini 3.1 Pro。 有测试者表示,在最近的 7 次抽卡中,该模型出现了 6 次。这种行为与此前 DeepSeek 测试 V4

tech linux.do 2026-05-02 20:37:49+08:00

glm-5.1, kimi-k2.6 在 code arena React 项目上排名 5 和 6,是不是真的好用?

真的假的?

tech www.v2ex.com 2026-05-02 20:00:05+08:00

glm-5.1, kimi-k2.6 在 code arena React 项目上排名 5 和 6,是不是真的好用?

真的假的?

tech www.v2ex.com 2026-05-02 20:00:05+08:00

glm-5.1, kimi-k2.6 在 code arena React 项目上排名 5 和 6,是不是真的好用?

真的假的?

tech www.v2ex.com 2026-05-02 19:00:05+08:00

glm-5.1, kimi-k2.6 在 code arena React 项目上排名 5 和 6,是不是真的好用?

真的假的?

tech www.v2ex.com 2026-05-02 18:00:05+08:00

用了下 DeepSeek-V4-Pro,分享下我对国内模型的看法

好几周前就听说了v4要出,我用过文心、千问、minimax和glm等,比较好用的也就glm5了,平常还是gpt和cc用的多。我同事是坚定的国产模型拥护者,上班一直给我吹v4有多么牛,我先前用过ds v3,吐token是挺快,但是幻觉率挺高。 昨天充了5块,改了下配置文件直接用de

tech linux.do 2026-05-02 17:27:27+08:00

[问与答] LLM 产品,海外版用 OpenRouter 国内版用什么?

国内有合规 API 聚合站吗,哪怕只能调国产模型也行。总不能在生产产品上用中转站吧?

tech v2ex.com 2026-05-02 16:40:28+08:00

[问与答] LLM 产品,海外版用 OpenRouter 国内版用什么?

国内有合规 API 聚合站吗,哪怕只能调国产模型也行。总不能在生产产品上用中转站吧?

tech v2ex.com 2026-05-02 15:40:28+08:00