[MacBook Pro] 14 寸 M5PRO 的 mbp 是不是散热很差呀?
入手了一台 14 寸的 M5PRO 的 mbp ( 48G+1T ),发现在编译中型 rust 和 c++项目的时候风扇狂转。而之前用的 Mac mini M4 好像就没怎么听见风扇转过,当时还怀疑是不是风扇有问题。 想问一下大佬们,14 寸 M5PRO 的 mbp 是不是散热很
rust - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 49 篇相关文章 · 第 2 / 3 页
入手了一台 14 寸的 M5PRO 的 mbp ( 48G+1T ),发现在编译中型 rust 和 c++项目的时候风扇狂转。而之前用的 Mac mini M4 好像就没怎么听见风扇转过,当时还怀疑是不是风扇有问题。 想问一下大佬们,14 寸 M5PRO 的 mbp 是不是散热很
入手了一台 14 寸的 M5PRO 的 mbp ( 48G+1T ),发现在编译中型 rust 和 c++项目的时候风扇狂转。而之前用的 Mac mini M4 好像就没怎么听见风扇转过,当时还怀疑是不是风扇有问题。 想问一下大佬们,14 寸 M5PRO 的 mbp 是不是散热很
入手了一台 14 寸的 M5PRO 的 mbp ( 48G+1T ),发现在编译中型 rust 和 c++项目的时候风扇狂转。而之前用的 Mac mini M4 好像就没怎么听见风扇转过,当时还怀疑是不是风扇有问题。 想问一下大佬们,14 寸 M5PRO 的 mbp 是不是散热很
入手了一台 14 寸的 M5PRO 的 mbp ( 48G+1T ),发现在编译中型 rust 和 c++项目的时候风扇狂转。而之前用的 Mac mini M4 好像就没怎么听见风扇转过,当时还怀疑是不是风扇有问题。 想问一下大佬们,14 寸 M5PRO 的 mbp 是不是散热很
入手了一台 14 寸的 M5PRO 的 mbp ( 48G+1T ),发现在编译中型 rust 和 c++项目的时候风扇狂转。而之前用的 Mac mini M4 好像就没怎么听见风扇转过,当时还怀疑是不是风扇有问题。 想问一下大佬们,14 寸 M5PRO 的 mbp 是不是散热很
入手了一台 14 寸的 M5PRO 的 mbp ( 48G+1T ),发现在编译中型 rust 和 c++项目的时候风扇狂转。而之前用的 Mac mini M4 好像就没怎么听见风扇转过,当时还怀疑是不是风扇有问题。 想问一下大佬们,14 寸 M5PRO 的 mbp 是不是散热很
入手了一台 14 寸的 M5PRO 的 mbp ( 48G+1T ),发现在编译中型 rust 和 c++项目的时候风扇狂转。而之前用的 Mac mini M4 好像就没怎么听见风扇转过,当时还怀疑是不是风扇有问题。 想问一下大佬们,14 寸 M5PRO 的 mbp 是不是散热很
写这个项目差不多有一年了,现在 GitHub 上差不多有了 4K 星星了! Koharu 是用 Rust 写的漫画翻译器,内置目标识别、基于视觉 LLM 的 OCR 、结构分析、遮罩识别、图像修复模型,基于 DAG 的流水线,可以自行组合喜欢的模型。 并且内置 llama.cpp
写这个项目差不多有一年了,现在 GitHub 上差不多有了 4K 星星了! Koharu 是用 Rust 写的漫画翻译器,内置目标识别、基于视觉 LLM 的 OCR 、结构分析、遮罩识别、图像修复模型,基于 DAG 的流水线,可以自行组合喜欢的模型。 并且内置 llama.cpp
写这个项目差不多有一年了,现在 GitHub 上差不多有了 4K 星星了! Koharu 是用 Rust 写的漫画翻译器,内置目标识别、基于视觉 LLM 的 OCR 、结构分析、遮罩识别、图像修复模型,基于 DAG 的流水线,可以自行组合喜欢的模型。 并且内置 llama.cpp
写这个项目差不多有一年了,现在 GitHub 上差不多有了 4K 星星了! Koharu 是用 Rust 写的漫画翻译器,内置目标识别、基于视觉 LLM 的 OCR 、结构分析、遮罩识别、图像修复模型,基于 DAG 的流水线,可以自行组合喜欢的模型。 并且内置 llama.cpp
写这个项目差不多有一年了,现在 GitHub 上差不多有了 4K 星星了! Koharu 是用 Rust 写的漫画翻译器,内置目标识别、基于视觉 LLM 的 OCR 、结构分析、遮罩识别、图像修复模型,基于 DAG 的流水线,可以自行组合喜欢的模型。 并且内置 llama.cpp
最近在折腾一个项目: WG-FRIEND 一句话介绍: Semantic WireGuard/BoringTun lifecycle and client management helper 它的出发点其实很简单: 我这边最近比较常见的几个场景,是需要一台比较稳定的服务器做跨网络
最近在折腾一个项目: WG-FRIEND 一句话介绍: Semantic WireGuard/BoringTun lifecycle and client management helper 它的出发点其实很简单: 我这边最近比较常见的几个场景,是需要一台比较稳定的服务器做跨网络
最近在折腾一个项目: WG-FRIEND 一句话介绍: Semantic WireGuard/BoringTun lifecycle and client management helper 它的出发点其实很简单: 我这边最近比较常见的几个场景,是需要一台比较稳定的服务器做跨网络
最近在折腾一个项目: WG-FRIEND 一句话介绍: Semantic WireGuard/BoringTun lifecycle and client management helper 它的出发点其实很简单: 我这边最近比较常见的几个场景,是需要一台比较稳定的服务器做跨网络
今天看到一个小工具 rtk: GitHub - rtk-ai/rtk: CLI proxy that reduces LLM token consumption by 60-90% on common dev commands. Single Rust binary, zero
最近在找一些新的产品方向,就顺手做了一个小实验:把 trustmrr 上 MRR 排名前 100 的独立开发产品抓下来,做了一点简单分析,看看有没有什么规律。 数据是用我自己做的浏览器插件 Scrapilot 抓的,直接把网页结构化成表格,然后丢给 ChatGPT 跑了一轮分析。
最近在找一些新的产品方向,就顺手做了一个小实验:把 trustmrr 上 MRR 排名前 100 的独立开发产品抓下来,做了一点简单分析,看看有没有什么规律。 数据是用我自己做的浏览器插件 Scrapilot 抓的,直接把网页结构化成表格,然后丢给 ChatGPT 跑了一轮分析。
最近在找一些新的产品方向,就顺手做了一个小实验:把 trustmrr 上 MRR 排名前 100 的独立开发产品抓下来,做了一点简单分析,看看有没有什么规律。 数据是用我自己做的浏览器插件 Scrapilot 抓的,直接把网页结构化成表格,然后丢给 ChatGPT 跑了一轮分析。