多台 GPU 之间怎么组网互联?
比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习
比如 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第11页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 243 篇相关文章 · 第 11 / 13 页
比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习
比如Trae codebuddy Qoder 这些,个人会员在公司用可以吗,还是必须上企业版? 8 个帖子 - 5 位参与者 阅读完整话题
比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习
比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习
各种环境、依赖,比如docker、github、golang等等,要么无法访问,要么巨慢无比。 目前的解决方案是常见的用国内镜像,仍然不好解决或者不稳定的走clash 但是每台服务器都要去折腾这些,感觉很麻烦。 所以想问下各位佬,大厂一般都是如何解决这个问题的?是否有比较省心的解
比如之前注册过英伟达的大模型要怎么导入来用呢 有的公益站还有grok大模型这种都是怎么引入使用的呢 求助 7 个帖子 - 1 位参与者 阅读完整话题
最近房子需要装修,各位佬有什么安利或者避雷的吗?比如洗碗机,蒸烤箱需不需,全屋智能装了的佬使用感受如何。 11 个帖子 - 3 位参与者 阅读完整话题
比如思考产品方案、解决方案、技术方案之类,一时之间找不到非常好的解决办法怎么办? 4 个帖子 - 4 位参与者 阅读完整话题
大部分中转站都没有这个model, 都是比如image 3 pro这样, 但是到不了4k (主要4k方便拆图) lingya的api大致现在要0.88元/张4k 有点太贵了… 想找有没有便宜的稍微稳定点的 感谢各位推荐啊! 1 个帖子 - 1 位参与者 阅读完整话题
问题:一些痴呆模型比如GLM4.7,简单需求它乱七八糟写一大堆防御。复杂需求又偷懒。所以我就想我能不能定义代码的质量维度。于是就有了如下的速查表。 # 代码维度速查 写代码前先确认每个维度的档位。没明说的走默认,我会标出偏离默认的地方。 --- ## 核心四维(每次都要定) ##
比如a1时长长了有没有哪些通病啥的 有哪些是损耗件需要问清楚的 6 个帖子 - 4 位参与者 阅读完整话题
目前正在把自动化平台托管给openclaw,比如测试脚本的生成、自动化报告分析、脚本修复。 接着想让openclaw来生成测试用例,此时就涉及到项目背景、产品业务逻辑、测试用例存储的问题了。 我就直接让龙虾 给方案了(模型是qwen-3.5plus ): 项目背景 & 业
比如我写论文,一般做法是让 gpt 写完,复制给 claude,然后再把 claude 的意见和改动复制给 gpt,来回太麻烦了 有想过在 vscode 里面安装两个插件分别 @的方法,但是传递给另一个模型的也只是改动后的文件,传递不了改动思路 另外自己写的 agents.md
比如glm,kimi之类的国产模型,我自己尝试了下都不能直接用,会报 We’re currently experiencing high demand, which may cause temporary errors. 而api本身我在其他地方是能正常使用的。 5 个帖子 -
比如看 dgx spark 这台机子,部署 31B BF16 gemma 这台机子的带宽 273 GB/s 31B 参数 × 2 bytes (BF16) ÷ 273 GB/s = 每个 token 227 ms = 理论最大 4.4 token/s 实际能到 3token/s
比如看 dgx spark 这台机子,部署 31B BF16 gemma 这台机子的带宽 273 GB/s 31B 参数 × 2 bytes (BF16) ÷ 273 GB/s = 每个 token 227 ms = 理论最大 4.4 token/s 实际能到 3token/s
没用注册机,都是古法注册的codex号,比如传一个txt文件里面包含账号密码,能够批量进行OAuth认证生成认证文件?CPA和sub2api的认证文件是一种格式吗?能够批量上传吗 6 个帖子 - 4 位参与者 阅读完整话题
比如看 dgx spark 这台机子,部署 31B BF16 gemma 这台机子的带宽 273 GB/s 31B 参数 × 2 bytes (BF16) ÷ 273 GB/s = 每个 token 227 ms = 理论最大 4.4 token/s 实际能到 3token/s
佬友们,想要入门渗透,逆向,比如怎么绕过登陆系统爬取信息之类,应该从哪开始学? 2 个帖子 - 2 位参与者 阅读完整话题