MacBook - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn

MacBook - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 203 篇相关文章 · 第 2 / 11 页

私有化部署大模型的“终点”是 Mac 还是 Nvidia?

自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark

tech www.v2ex.com 2026-05-01 01:27:08+08:00

[macOS] MacbookPro M5Pro vibe coding 每小时掉电 20%正常吗?

用 Codex 编程,没有重型任务,基本就是用 BigQuery 做数据分析,让 codex 写一下脚本而已 同时开着个位数浏览器标签、微信、VSCode 、Claude Desktop 、WPS 感觉这个掉电速度有点太快了,第一次用 Macbook ,想着应该能续航 8 小时的

tech v2ex.com 2026-05-01 00:41:44+08:00

[macOS] MacbookPro M5Pro vibe coding 每小时掉电 20%正常吗?

用 Codex 编程,没有重型任务,基本就是用 BigQuery 做数据分析,让 codex 写一下脚本而已 同时开着个位数浏览器标签、微信、VSCode 、Claude Desktop 、WPS 感觉这个掉电速度有点太快了,第一次用 Macbook ,想着应该能续航 8 小时的

tech v2ex.com 2026-05-01 00:41:44+08:00

[macOS] MacbookPro M5Pro vibe coding 每小时掉电 20%正常吗?

用 Codex 编程,没有重型任务,基本就是用 BigQuery 做数据分析,让 codex 写一下脚本而已 同时开着个位数浏览器标签、微信、VSCode 、Claude Desktop 、WPS 感觉这个掉电速度有点太快了,第一次用 Macbook ,想着应该能续航 8 小时的

tech v2ex.com 2026-05-01 00:30:20+08:00

私有化部署大模型的“终点”是 Mac 还是 Nvidia?

自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark

tech www.v2ex.com 2026-05-01 00:27:08+08:00

我是搞一台国内的云主机还是搞一台境外的云主机呢?

之前在各位佬的推荐下已经下定了一台 48G 版本的macbook pro,现在有新的问题了,我希望能在家的时候继续使用这台电脑的性能(周末了也给我干活啊喂)。 首先有一个背景就是公司网络很好,支持我直接访问外网,包括Gpt,Claude这些,但是说是禁止远程,其实我之前就装过 f

tech linux.do 2026-04-30 23:48:47+08:00

[macOS] MacbookPro M5Pro vibe coding 每小时掉电 20%正常吗?

用 Codex 编程,没有重型任务,基本就是用 BigQuery 做数据分析,让 codex 写一下脚本而已 同时开着个位数浏览器标签、微信、VSCode 、Claude Desktop 、WPS 感觉这个掉电速度有点太快了,第一次用 Macbook ,想着应该能续航 8 小时的

tech v2ex.com 2026-04-30 22:26:43+08:00

[macOS] MacbookPro M5Pro vibe coding 每小时掉电 20%正常吗?

用 Codex 编程,没有重型任务,基本就是用 BigQuery 做数据分析,让 codex 写一下脚本而已 同时开着个位数浏览器标签、微信、VSCode 、Claude Desktop 、WPS 感觉这个掉电速度有点太快了,第一次用 Macbook ,想着应该能续航 8 小时的

tech v2ex.com 2026-04-30 20:01:57+08:00

听说要出mac mini neo 了? 为什么又叫neo?

为什么mac mini还是叫neo?这是借鉴始皇佬的名? 还是说有内部人在水站,已经出了 macbook pro neo了,又来一个neo 6 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-30 18:34:15+08:00

私有化部署大模型的“终点”是 Mac 还是 Nvidia?

自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark

tech www.v2ex.com 2026-04-30 18:21:21+08:00

私有化部署大模型的“终点”是 Mac 还是 Nvidia?

自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark

tech www.v2ex.com 2026-04-30 18:21:21+08:00

私有化部署大模型的“终点”是 Mac 还是 Nvidia?

自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark

tech www.v2ex.com 2026-04-30 18:11:00+08:00

私有化部署大模型的“终点”是 Mac 还是 Nvidia?

自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark

tech www.v2ex.com 2026-04-30 18:10:19+08:00

有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro 适合部署哪个本地模型

配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?

tech www.v2ex.com 2026-04-30 18:07:57+08:00

有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro 适合部署哪个本地模型

配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?

tech www.v2ex.com 2026-04-30 18:07:57+08:00

私有化部署大模型的“终点”是 Mac 还是 Nvidia?

自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark

tech www.v2ex.com 2026-04-30 17:56:37+08:00

私有化部署大模型的“终点”是 Mac 还是 Nvidia?

自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark

tech www.v2ex.com 2026-04-30 17:20:18+08:00

有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro 适合部署哪个本地模型

配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?

tech www.v2ex.com 2026-04-30 17:07:57+08:00

[Local LLM] 有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro 适合部署哪个本地模型

配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?

tech v2ex.com 2026-04-30 16:29:02+08:00

[Local LLM] 有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro 适合部署哪个本地模型

配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?

tech v2ex.com 2026-04-30 16:01:10+08:00