[Local LLM] 多台 GPU 之间怎么组网互联?
比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习
Deep - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第66页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 1395 篇相关文章 · 第 66 / 70 页
比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习
比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习
比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习
比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习
谁放我手机里的!!!,快丢出去! 2 个帖子 - 1 位参与者 阅读完整话题
从早上开始,我的Deepresearch就无法使用,现在试了一次还是不能用,复盘无望。佬友的Gemini遇到相似的情况吗? 1 个帖子 - 1 位参与者 阅读完整话题
感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview
感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview
感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview
网传:全新Deepseekv4.0新模型测试结果(二更:存疑,仅供娱乐,不过大家可以期待一下) 15 个帖子 - 1 位参与者 阅读完整话题
感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview
我一直显示 I'm sorry, I'm experiencing unusually high traffic right now and am at full capacity. Please try again later. 1 个帖子 - 1 位参与者
感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview
感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview
感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview
AI里的缓存命中机制是怎么样的,充了十块的deepseek按量付费,让他分析项目和写简单模块消耗差不多,和读的上下文多少有关? 2 个帖子 - 2 位参与者 阅读完整话题
这周又是模型大混战,昨天千问刚发布 Qwen3.6-Max-Preview,今天 Moonshot 连夜开源 Kimi 2.6,推特上看到有说混元这周很可能也要发布新模型。 接下来就看 DeepSeek v4 的了,总不能比 GLM、Kimi 和 Qwen 的新模型差吧。 希望能
训它的卡,是不是真的换成昇腾了。 跳票一年多,说是底层从 CUDA 搬华为全家桶了。要是这波真在国产卡上跑出万亿 MoE,那 V4 最大的看点就不是跑分,是这条路到底走不走得通。 跑赢了最好,跑不赢也认。起码没在英伟达一棵树上吊死。 10 个帖子 - 10 位参与者 阅读完整话题
deepseek到底是什么情况了,从年前说发布到今天还没影,跟老贾一样了,永远都是下周,遥遥无期。codex-free的额度一砍再砍,好多号也杀了,再不出来就要回到古法编程了。 4 个帖子 - 4 位参与者 阅读完整话题
IT之家 4 月 21 日消息,韩国 AI 芯片企业 DEEPX 当地时间今日发布公告, 将与现代汽车集团机器人实验室 (Robotics LAB) 一道打造基于 DX-M2 新品的新一代机器人物理 AI 计算平台 ,支持本地实时运行大型 LLM。 IT之家注意到,DEEPX 的