私有化部署大模型的“终点”是 Mac 还是 Nvidia?
自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark
MacBook - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 203 篇相关文章 · 第 2 / 11 页
自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark
用 Codex 编程,没有重型任务,基本就是用 BigQuery 做数据分析,让 codex 写一下脚本而已 同时开着个位数浏览器标签、微信、VSCode 、Claude Desktop 、WPS 感觉这个掉电速度有点太快了,第一次用 Macbook ,想着应该能续航 8 小时的
用 Codex 编程,没有重型任务,基本就是用 BigQuery 做数据分析,让 codex 写一下脚本而已 同时开着个位数浏览器标签、微信、VSCode 、Claude Desktop 、WPS 感觉这个掉电速度有点太快了,第一次用 Macbook ,想着应该能续航 8 小时的
用 Codex 编程,没有重型任务,基本就是用 BigQuery 做数据分析,让 codex 写一下脚本而已 同时开着个位数浏览器标签、微信、VSCode 、Claude Desktop 、WPS 感觉这个掉电速度有点太快了,第一次用 Macbook ,想着应该能续航 8 小时的
自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark
之前在各位佬的推荐下已经下定了一台 48G 版本的macbook pro,现在有新的问题了,我希望能在家的时候继续使用这台电脑的性能(周末了也给我干活啊喂)。 首先有一个背景就是公司网络很好,支持我直接访问外网,包括Gpt,Claude这些,但是说是禁止远程,其实我之前就装过 f
用 Codex 编程,没有重型任务,基本就是用 BigQuery 做数据分析,让 codex 写一下脚本而已 同时开着个位数浏览器标签、微信、VSCode 、Claude Desktop 、WPS 感觉这个掉电速度有点太快了,第一次用 Macbook ,想着应该能续航 8 小时的
用 Codex 编程,没有重型任务,基本就是用 BigQuery 做数据分析,让 codex 写一下脚本而已 同时开着个位数浏览器标签、微信、VSCode 、Claude Desktop 、WPS 感觉这个掉电速度有点太快了,第一次用 Macbook ,想着应该能续航 8 小时的
为什么mac mini还是叫neo?这是借鉴始皇佬的名? 还是说有内部人在水站,已经出了 macbook pro neo了,又来一个neo 6 个帖子 - 5 位参与者 阅读完整话题
自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark
自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark
自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark
自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark
配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?
配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?
自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark
自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark
配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?
配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?
配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?