[Local LLM] 多台 GPU 之间怎么组网互联?
比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习
lm - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第37页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 929 篇相关文章 · 第 37 / 47 页
比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习
比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习
比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习
比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习
日常开发兜底使用,不接小龙虾。极限4选1。 大致讲讲为什么吧。顺便也给后面的人一些意见。 8 个帖子 - 7 位参与者 阅读完整话题
比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习
比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习
我做了一个叫 huancode.com 的 Claude API 平台,现在刚上线,在找 独立开发者 和 中小企业里的 AI Coding 布道者 做种子用户。V2EX 用户专属福利:注册后联系我或评论,赠送 100 元 无门槛体验额度,使用过程中的感受和需求在本帖回复反馈就行。
我做了一个叫 huancode.com 的 Claude API 平台,现在刚上线,在找 独立开发者 和 中小企业里的 AI Coding 布道者 做种子用户。V2EX 用户专属福利:注册后联系我或评论,赠送 100 元 无门槛体验额度,使用过程中的感受和需求在本帖回复反馈就行。
我做了一个叫 huancode.com 的 Claude API 平台,现在刚上线,在找 独立开发者 和 中小企业里的 AI Coding 布道者 做种子用户。V2EX 用户专属福利:注册后联系我或评论,赠送 100 元 无门槛体验额度,使用过程中的感受和需求在本帖回复反馈就行。
我做了一个叫 huancode.com 的 Claude API 平台,现在刚上线,在找 独立开发者 和 中小企业里的 AI Coding 布道者 做种子用户。V2EX 用户专属福利:注册后联系我或评论,赠送 100 元 无门槛体验额度,使用过程中的感受和需求在本帖回复反馈就行。
我做了一个叫 huancode.com 的 Claude API 平台,现在刚上线,在找 独立开发者 和 中小企业里的 AI Coding 布道者 做种子用户。V2EX 用户专属福利:注册后联系我或评论,赠送 100 元 无门槛体验额度,使用过程中的感受和需求在本帖回复反馈就行。
这下好了,他都快没了,笑死,赶快手动续费一下 1 个帖子 - 1 位参与者 阅读完整话题
我做了一个叫 huancode.com 的 Claude API 平台,现在刚上线,在找 独立开发者 和 中小企业里的 AI Coding 布道者 做种子用户。V2EX 用户专属福利:注册后联系我或评论,赠送 100 元 无门槛体验额度,使用过程中的感受和需求在本帖回复反馈就行。
我在使用GLM Coding Plan,数小时内完成过去需要数周的开发工作,赠送你1张7天AI Coding体验卡,一起来用吧: https://bigmodel.cn/activity/trial-card/7FQ8GWYREL 5 个帖子 - 1 位参与者 阅读完整话题
我做了一个叫 huancode.com 的 Claude API 平台,现在刚上线,在找 独立开发者 和 中小企业里的 AI Coding 布道者 做种子用户。V2EX 用户专属福利:注册后联系我或评论,赠送 100 元 无门槛体验额度,使用过程中的感受和需求在本帖回复反馈就行。
对这些不是很了解,我同一个局域网api调用模型生成比较慢,我主要是学习一些开发内容简单使用有个接口用的需求,有什么方法解决么,当然我的机器只是个配置很一般的笔记本,这个是参数列表,都是什么意思 这个下边这个请求时候会变成生成状态,这个红色框的状态代表什么意思 1 个帖子 - 1
有人把AI装进U盘了,还是无审查版的! 这个开源项目USB-Uncensored-LLM直接把Gemma、Qwen等大模型塞进U盘,插哪台电脑就在哪跑,Win/Mac/Linux全兼容,完全离线,零联网,聊天记录还能持久保存。 最骚的是:模型只需下载一次,多平台共用,不重复占空间
最近看了很多佬友和网络上对glm 5.1以及kimi 2.6的评测,我个人由于生产环境原因不太敢直接在我的代码中使用这些模型,包括gpt和opus我也是多次审查使用。 请问各位使用较多的佬友,这些模型是否基本已经达到了opus4.5满血的水准?还是尚有差距呢。这里的评判标准不仅仅
我做了一个叫 huancode.com 的 Claude API 平台,现在刚上线,在找 独立开发者 和 中小企业里的 AI Coding 布道者 做种子用户。V2EX 用户专属福利:注册后联系我或评论,赠送 100 元 无门槛体验额度,使用过程中的感受和需求在本帖回复反馈就行。