book - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第3页 - 钛刻科技 | TCTI.cn

book - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第3页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 299 篇相关文章 · 第 3 / 15 页

[macOS] MacbookPro M5Pro vibe coding 每小时掉电 20%正常吗?

用 Codex 编程,没有重型任务,基本就是用 BigQuery 做数据分析,让 codex 写一下脚本而已 同时开着个位数浏览器标签、微信、VSCode 、Claude Desktop 、WPS 感觉这个掉电速度有点太快了,第一次用 Macbook ,想着应该能续航 8 小时的

tech v2ex.com 2026-05-01 00:30:20+08:00

私有化部署大模型的“终点”是 Mac 还是 Nvidia?

自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark

tech www.v2ex.com 2026-05-01 00:27:08+08:00

我是搞一台国内的云主机还是搞一台境外的云主机呢?

之前在各位佬的推荐下已经下定了一台 48G 版本的macbook pro,现在有新的问题了,我希望能在家的时候继续使用这台电脑的性能(周末了也给我干活啊喂)。 首先有一个背景就是公司网络很好,支持我直接访问外网,包括Gpt,Claude这些,但是说是禁止远程,其实我之前就装过 f

tech linux.do 2026-04-30 23:48:47+08:00

三星Galaxy Book笔记本据称将弃用Windows 11 转而预装Android 17

三星可能正在重新调整Galaxy Book产品线的系统路线。报道指出,三星最新一代Galaxy Book6、Book6 Pro和Book6 Ultra刚刚于上月推出,但该公司接下来或不再继续沿用Windows 11,而是考虑将未来部分Galaxy Book笔记本转向基于Andro

tech plink.anyfeeder.com 2026-04-30 23:05:13+08:00

[macOS] MacbookPro M5Pro vibe coding 每小时掉电 20%正常吗?

用 Codex 编程,没有重型任务,基本就是用 BigQuery 做数据分析,让 codex 写一下脚本而已 同时开着个位数浏览器标签、微信、VSCode 、Claude Desktop 、WPS 感觉这个掉电速度有点太快了,第一次用 Macbook ,想着应该能续航 8 小时的

tech v2ex.com 2026-04-30 22:26:43+08:00

[macOS] MacbookPro M5Pro vibe coding 每小时掉电 20%正常吗?

用 Codex 编程,没有重型任务,基本就是用 BigQuery 做数据分析,让 codex 写一下脚本而已 同时开着个位数浏览器标签、微信、VSCode 、Claude Desktop 、WPS 感觉这个掉电速度有点太快了,第一次用 Macbook ,想着应该能续航 8 小时的

tech v2ex.com 2026-04-30 20:01:57+08:00

听说要出mac mini neo 了? 为什么又叫neo?

为什么mac mini还是叫neo?这是借鉴始皇佬的名? 还是说有内部人在水站,已经出了 macbook pro neo了,又来一个neo 6 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-30 18:34:15+08:00

私有化部署大模型的“终点”是 Mac 还是 Nvidia?

自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark

tech www.v2ex.com 2026-04-30 18:21:21+08:00

私有化部署大模型的“终点”是 Mac 还是 Nvidia?

自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark

tech www.v2ex.com 2026-04-30 18:21:21+08:00

私有化部署大模型的“终点”是 Mac 还是 Nvidia?

自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark

tech www.v2ex.com 2026-04-30 18:11:00+08:00

私有化部署大模型的“终点”是 Mac 还是 Nvidia?

自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark

tech www.v2ex.com 2026-04-30 18:10:19+08:00

有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro 适合部署哪个本地模型

配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?

tech www.v2ex.com 2026-04-30 18:07:57+08:00

有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro 适合部署哪个本地模型

配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?

tech www.v2ex.com 2026-04-30 18:07:57+08:00

私有化部署大模型的“终点”是 Mac 还是 Nvidia?

自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark

tech www.v2ex.com 2026-04-30 17:56:37+08:00

私有化部署大模型的“终点”是 Mac 还是 Nvidia?

自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark

tech www.v2ex.com 2026-04-30 17:20:18+08:00

有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro 适合部署哪个本地模型

配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?

tech www.v2ex.com 2026-04-30 17:07:57+08:00

[Local LLM] 有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro 适合部署哪个本地模型

配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?

tech v2ex.com 2026-04-30 16:29:02+08:00

消息称三星将推出安卓系统 Galaxy Book 笔记本,入门、中端、旗舰全覆盖

IT之家 4 月 30 日消息,北京时间今天下午,外媒 Sammobile 爆料称,三星正在开发 基于安卓的 Galaxy Book 笔记本电脑 ,搭载基于安卓 17 的 One UI 9。 三星目前已经有 基于 ChromeOS 的 Galaxy Chromebook 。接下来

tech www.ithome.com 2026-04-30 16:23:44+08:00

[Local LLM] 有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro 适合部署哪个本地模型

配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?

tech v2ex.com 2026-04-30 16:01:10+08:00

[Local LLM] 有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro 适合部署哪个本地模型

配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?

tech v2ex.com 2026-04-30 15:54:30+08:00