lm - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第26页 - 钛刻科技 | TCTI.cn

lm - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第26页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 917 篇相关文章 · 第 26 / 46 页

glm-5.1 3d 魔方简要测试

从上面两篇帖子继续 Deepseek v4 pro 3d魔方简要测试 国产替代 使用 cherry studio 客户端, 未设置系统提示词, 思考等级:auto 提示词: 你是一名精通图形学算法与 Web 交互的前端专家。请仅用一个 HTML 文件,基于 Three.js (E

tech linux.do 2026-04-24 16:11:46+08:00

请教一下这个套餐划算吗(虽然我已经买了)

如图,只支持国产模型,glm和v4 pro是3倍计算 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-24 15:27:58+08:00

在文档里面,kimi和glm被ds吐槽了

我们为K2.6和GLM-5.1留下了一些空白条目,因为它们的API太忙了,无法返回 回答我们的问题。 Z畜还好意思回复 5 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-24 14:36:21+08:00

DeepSeekV4的编码能力和GLM5.1谁更强?

求问各位佬,DeepSeek-V4-Pro的编码能力和GLM-5.1谁更强? DeepSeek-V4-Flash和DeepSeek-V4-Pro的能力又差多少呢? 4 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-24 13:50:33+08:00

【辟谣】智谱glm5和deepseekv4大部分训练都用的英伟达,而不是站里某些人传的昇腾

glm5有官方technical report,deepseekv4也有英文文档。连接如下 https://arxiv.org/pdf/2602.15763 huggingface.co DeepSeek_V4.pdf 68.21 KB 19 个帖子 - 12 位参与者 阅读完整

tech linux.do 2026-04-24 13:46:21+08:00

Deepseek v4论文中”吐槽“kimi2.6、glm5.1限流

智谱则进行了回复 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-24 13:38:45+08:00

将glm5.1的智商换算为juice值,那一定是429

gpt的juice值需要提示词才能问出来,glm5.1就不一样了,你不问他他都跟你报429(高峰期限流不可用报错) 2 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-24 13:33:13+08:00

为什么有些佬批判深度求索适配国产算力?

明明 GLM 5 系列也是纯国产算力训练的(基模和后训练在 10 万张华为昇腾 910B 芯片组成的算力集群),而且支持在华为昇腾、海光、寒武纪、摩尔线程、昆仑芯、天数智芯、燧原等算力卡推理。 且不提智谱畜否,GLM 出时没什么声音,怎么 DeepSeek V4 一出,总见到有嘲

tech linux.do 2026-04-24 12:56:06+08:00

到底怎么才能降低Qwen3.5-35B-A3B的think啊

大佬们 最近用最新的gpustack2.1.2版本 搭配8个L40装了Qwen3.5-35B-A3B的vllm模型。 官方文档说可以靠thinking_budget参数来调节思考的长度,但是根本不好使啊.. system角色写提示词要求它精简思考过程也不行。。。。 没招了.. 1

tech linux.do 2026-04-24 12:47:47+08:00

盖棺定论了dsv4p低于glm5.1甚至可能不如mimo2.5p

测了魔方 ds完全不如glm5.1甚至不如mimo2.5p 测了拉煤问题ds也拉完了 陨落了ds 16 个帖子 - 12 位参与者 阅读完整话题

tech linux.do 2026-04-24 12:42:21+08:00

DeepSeek V4 Pro测评:抱歉没能让GLM大人尽兴

依旧先放私有bench 这个模型吧,他的思考效率极低,,经常思考个600-1000秒 但是呢,人家GPT思考这么久真能把活干好,v4p就只能达到中游水平了 写出来的很多东西只能说想法很好,但能力不足 在审美这一块呢,不像任何一个模型,基本都有自己的理解,说明代码蒸的不多, 不像某

tech linux.do 2026-04-24 12:40:17+08:00

电子斗蛐蛐:小米mimo vs 智谱glm vs GPT

从该评论继续讨论: 小米发布了MiMo-V2.5-Pro模型,有用过的感觉效果怎么样吗? 昨天使用了社区佬友分享的 mimo-v2.5-pro,当时解决了我一个困扰已久的问题,此问题 gpt-5.4/glm-5.1 都没有解决,今天又遇到一个类似的问题,我决定试一试 初始提示词相

tech linux.do 2026-04-24 12:19:42+08:00

是不是以后想私有化部署满血开源模型越来越难了?

现在新出的模型 deepseekv4 pro 862B参数,GLM5.1 754B参数,kimi 2.6 1.1T的参数。像千问这种397B的是不是以后就不会有了。 想在公司八卡L20上部署一下新模型,算了一下量化后都不够部署上去。部署成本太高了,qwen3.6的满参数迟迟不发布

tech linux.do 2026-04-24 12:00:55+08:00

Deepseek v4 pro是否是GLM平替

看到网上的图,分数似乎跟GLM相同 价格还是可以的 有没有兄弟实际使用过,感受如何呢 或是体验有没有办法跟claude gpt扳一扳手脚 10 个帖子 - 9 位参与者 阅读完整话题

tech linux.do 2026-04-24 11:58:40+08:00

DeepseekV4Pro的私有Coding测试集评测结果

来自知乎toyama佬 网站: LLM Benchmark Dashboard 附:其他未测完的国模 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-24 11:52:40+08:00

今天 QClaw 更新后免费使用国产大模型 Kimi/GLM

今天更新了一下 QClaw,结果发现直接内置了多款国内热门大模型,而且居然可以免费用(按积分算但门槛很低)。 像 Kimi、GLM、MiniMax 都能直接切换,对日常写代码、写文档、做分析来说已经很够用了。 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-24 11:12:51+08:00

感觉你站应该是各家LLM训练时候的优质语料

especially国模,也算是对提高国模水平的一种帮助了(? 10 个帖子 - 9 位参与者 阅读完整话题

tech linux.do 2026-04-24 04:18:22+08:00

[Qwen3.6]27B-FP8 VLLM本地部署主观个人测评

硬件配置 组件 规格 CPU Intel i5-13600K GPU RTX 4090 48G + RTX 4070Ti 12G 内存 DDR4-3600 128G (4x32G) 主板 华硕 Z690-P D4 系统 Windows 11 LTSC WSL Ubuntu 22.

tech linux.do 2026-04-24 00:28:36+08:00

GLM-5.1网页版这是啥情况啊

如图所示,这是何意味啊,在循环了非常久之后,他居然还能圆回来虽然最后什么也没返回 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-23 23:25:48+08:00

v4何时出😭

deepseek你就继续陪太子读书吧,就算GPT出5.5,Claude出mythos,kimi出2.6,qwen出3.6,glm出5.1我也不在乎,我只爱你v4​ 9 个帖子 - 9 位参与者 阅读完整话题

tech linux.do 2026-04-23 23:07:31+08:00