[Local LLM] 有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro 适合部署哪个本地模型
配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?
LM - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第7页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 895 篇相关文章 · 第 7 / 45 页
配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?
自 3 月起,我们在 GLM-5 的线上监控和用户反馈中观察到三类异常现象: 乱码(garbled output)、复读(repetition),以及生僻字(rare character)。 大家常称之为 “降智”。 但由于我们并没有上线任何降低模型精度的优化, 所以问题变得扑朔
导师搞了台DGX Spark,说要部署一个大模型进去,关于DGX的中文部署教程目前并不算多,和各位佬友分享一下这次部署过程完整,顺手写一篇教程。 这里计划部署的模型是 AEON-7/Qwen3.6-27B-AEON-Ultimate-Uncensored-NVFP4 · Hugg
如何接到 vscode 里面 没有权限安装其他软件
如何接到 vscode 里面 没有权限安装其他软件
最近搞了个小项目,给一段 prompt 加一份长文档,自动出一版可以继续编辑的 PPT 草稿。本来以为最难的部分是 prompt 设计或者 PPT 渲染,结果 80% 的时间都耗在了文档解析上,记录一下踩过的坑,顺便想请教下各位在这块都是怎么处理的。 场景大概是这样:用户上传的资
最近搞了个小项目,给一段 prompt 加一份长文档,自动出一版可以继续编辑的 PPT 草稿。本来以为最难的部分是 prompt 设计或者 PPT 渲染,结果 80% 的时间都耗在了文档解析上,记录一下踩过的坑,顺便想请教下各位在这块都是怎么处理的。 场景大概是这样:用户上传的资
用官方抽奖助手, 下面评论就好了,抽五张。 2026年4月30日 18点截止 18 个帖子 - 17 位参与者 阅读完整话题
最近搞了个小项目,给一段 prompt 加一份长文档,自动出一版可以继续编辑的 PPT 草稿。本来以为最难的部分是 prompt 设计或者 PPT 渲染,结果 80% 的时间都耗在了文档解析上,记录一下踩过的坑,顺便想请教下各位在这块都是怎么处理的。 场景大概是这样:用户上传的资
除了Claude跟GPT,感觉就GLM好用一点了 这个是开源的 应该很多平台都部署了 但是好像也挺贵使用的,压根不怎么够用,有没有一百左右能解决管饱的GLM5.1呢 10 个帖子 - 8 位参与者 阅读完整话题
最近搞了个小项目,给一段 prompt 加一份长文档,自动出一版可以继续编辑的 PPT 草稿。本来以为最难的部分是 prompt 设计或者 PPT 渲染,结果 80% 的时间都耗在了文档解析上,记录一下踩过的坑,顺便想请教下各位在这块都是怎么处理的。 场景大概是这样:用户上传的资
[开源] OpenTalking:面向实时对话的开源数字人产线 (LLM+TTS+WebRTC) V 站的各位开发者朋友们大家好!今天想和大家分享我们开源的一个新项目: OpenTalking 。这是一个开源的实时数字人框架。 开发数字人对话产品时,大家往往会遇到一个痛点:各种优
[开源] OpenTalking:面向实时对话的开源数字人产线 (LLM+TTS+WebRTC) V 站的各位开发者朋友们大家好!今天想和大家分享我们开源的一个新项目: OpenTalking 。这是一个开源的实时数字人框架。 开发数字人对话产品时,大家往往会遇到一个痛点:各种优
自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark
自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark
自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark
最近搭了一个 LLM API 中转站: zerofra.me 地址: https://api.zerofra.me/ 目前主要支持: Codex / GPT 系列模型 Claude 系列模型 现在刚上线,想先邀请大家试用一下,也顺便帮忙反馈问题。 新用户注册后送 $10 测试额度
近期使用opencode go套餐模型更新挺快的,glm5.1 、ds v4 pro第一时间就上了,且kimi 2.6还有三倍额度。但之前都是直接在opencode中直接用的。 昨天想通过opencode go的模型接入claude code,也按照站内一些教程在cc-switc
自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark
最近搭了一个 LLM API 中转站: zerofra.me 地址: https://api.zerofra.me/ 目前主要支持: Codex / GPT 系列模型 Claude 系列模型 现在刚上线,想先邀请大家试用一下,也顺便帮忙反馈问题。 新用户注册后送 $10 测试额度