谁才是8卡H200服务器的终极归宿,GLM-5.1-FP8 vs Kimi-2.6 vs ... ?
目前有一台闲置 H200(显存141Gb)*8 的服务器,想部署本地模型体验一波,目前考虑的有2个,GLM-5.1-FP8和Kimi-2.6,有佬深度使用过哪个更强一些吗,或者还有其他模型推荐吗 模型 架构 专家数 参数量和激活 模型权重 HuggingFace 链接 Kimi
5.1 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第4页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 335 篇相关文章 · 第 4 / 17 页
目前有一台闲置 H200(显存141Gb)*8 的服务器,想部署本地模型体验一波,目前考虑的有2个,GLM-5.1-FP8和Kimi-2.6,有佬深度使用过哪个更强一些吗,或者还有其他模型推荐吗 模型 架构 专家数 参数量和激活 模型权重 HuggingFace 链接 Kimi
暂时不考虑各种插件和 skill,只考虑开箱即用 glm 5.1 搭配这两个 agent,谁的效果更好? 有没有熟悉的佬友出来说说 9 个帖子 - 7 位参与者 阅读完整话题
如题,最近没有gpt用了,没招了,想换到公益站的glm或ds 2 个帖子 - 2 位参与者 阅读完整话题
猛蹬一天只花了一块多(我是flash和pro混用),编程能力个人感觉接近GLM5.1,最主要的优点就是特别省token,同样的任务消耗的token数量几乎是其他模型的80%左右,再加上1M的长上下文,真感觉特别适合CC,CX这些智能体。 然后今天看了一眼API价格, 官方直接把
IT之家 4 月 29 日消息,CORSAIR(海盗船)美国当地时间昨日宣布推出 ThermalProtect PCIe 5.1 600W 12V-2x6 线缆。 这一产品在距端子 30mm 的线梳处集成了高温保护 (OTP) 模块, 当其检测到不安全温度时 OTP 技术会立即启
邀请代码:HCEAD7 电报:@fgvbt123
(话题已被作者删除) 1 个帖子 - 1 位参与者 阅读完整话题
DeepSeek |DeepSeek-V4 系列 月之暗面 Kimi|Kimi K2.6 智谱 AI|GLM-5.1 阿里通义千问|Qwen3.6-Max-Preview / Qwen3.6-Plus 字节跳动豆包 / Seed|Seed2.0系列 小米|MiMo-V2.5系列
这俩二选一选哪个好?代码需求比较大,不行的话拿来处理文档的话是否合适?比如银行文档啥的。glm5.1 vs deepseek v4哪个好?貌似都是非多模态模型吧 22 个帖子 - 19 位参与者 阅读完整话题
邀请代码:HCEAD7 电报:@fgvbt123
我主要考虑性价比,稳定(输出快),编程能力 大概 价格0.4 编程0.4 稳定0.2 这样的占比 11 个帖子 - 9 位参与者 阅读完整话题
想问一下各位佬,你们的api,比如glm5.1 claude等的api都是在claude code上面集成吗,可以跟codex一样直接对代码库进行更改吗 1 个帖子 - 1 位参与者 阅读完整话题
Claude Code 现在强制要1M上下文吗?那GLM5.1咋办? 2 个帖子 - 2 位参与者 阅读完整话题
前沿慢讯,dp4上了以后GLM感受到压力了是吧 我记得之前这个图显示是活动持续到四月底,这会到六月底了 所以根本不缺算力,只不过是特色文化 7 个帖子 - 6 位参与者 阅读完整话题
用GLM-5.1给编排个任务,让它输出成md,额度直接给干掉80%。 本来它的5小时额度就不合理,别家都是采用的滑窗,它的是固定窗口,再加上调用次数不透明,太难受了。 我提工单去询问,直接给回复这是内部统计,不方便提供倍率数据 smiling_face_with_tear: 3
我很清楚的记得之前是4月30日~ 好多佬友们还在在高峰期体验过3倍的消耗速度极其恐怖,担心非高峰期调用也翻倍可咋办,现在延长到6月底了! 13 个帖子 - 13 位参与者 阅读完整话题
5 个帖子 - 5 位参与者 阅读完整话题
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6