LM - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第7页 - 钛刻科技 | TCTI.cn

LM - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第7页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 895 篇相关文章 · 第 7 / 45 页

[Local LLM] 有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro 适合部署哪个本地模型

配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?

tech v2ex.com 2026-04-30 15:54:30+08:00

智谱GLM降智?乱码、生僻字、循环……已通过工程修复解决!

自 3 月起,我们在 GLM-5 的线上监控和用户反馈中观察到三类异常现象: 乱码(garbled output)、复读(repetition),以及生僻字(rare character)。 大家常称之为 “降智”。 但由于我们并没有上线任何降低模型精度的优化, 所以问题变得扑朔

tech linux.do 2026-04-30 15:31:24+08:00

【DGX Spark教程系列-LLM部署】从0部署Qwen3.6-27B-NVFP4

导师搞了台DGX Spark,说要部署一个大模型进去,关于DGX的中文部署教程目前并不算多,和各位佬友分享一下这次部署过程完整,顺手写一篇教程。 这里计划部署的模型是 AEON-7/Qwen3.6-27B-AEON-Ultimate-Uncensored-NVFP4 · Hugg

tech linux.do 2026-04-30 15:31:12+08:00

公司有内网部署的 glm 但是只提供 codebuddy 插件

如何接到 vscode 里面 没有权限安装其他软件

tech www.v2ex.com 2026-04-30 15:22:36+08:00

[问与答] 公司有内网部署的 glm 但是只提供 codebuddy 插件

如何接到 vscode 里面 没有权限安装其他软件

tech v2ex.com 2026-04-30 15:00:54+08:00

请教下:长 PDF / Word 解析后喂给 LLM,结构丢失问题大家都怎么处理

最近搞了个小项目,给一段 prompt 加一份长文档,自动出一版可以继续编辑的 PPT 草稿。本来以为最难的部分是 prompt 设计或者 PPT 渲染,结果 80% 的时间都耗在了文档解析上,记录一下踩过的坑,顺便想请教下各位在这块都是怎么处理的。 场景大概是这样:用户上传的资

tech www.v2ex.com 2026-04-30 14:58:08+08:00

请教下:长 PDF / Word 解析后喂给 LLM,结构丢失问题大家都怎么处理

最近搞了个小项目,给一段 prompt 加一份长文档,自动出一版可以继续编辑的 PPT 草稿。本来以为最难的部分是 prompt 设计或者 PPT 渲染,结果 80% 的时间都耗在了文档解析上,记录一下踩过的坑,顺便想请教下各位在这块都是怎么处理的。 场景大概是这样:用户上传的资

tech www.v2ex.com 2026-04-30 14:58:08+08:00

[GLM PLAN] 7天体验卡,五张抽了。没别的点个赞吧。

用官方抽奖助手, 下面评论就好了,抽五张。 2026年4月30日 18点截止 18 个帖子 - 17 位参与者 阅读完整话题

tech linux.do 2026-04-30 14:29:23+08:00

请教下:长 PDF / Word 解析后喂给 LLM,结构丢失问题大家都怎么处理

最近搞了个小项目,给一段 prompt 加一份长文档,自动出一版可以继续编辑的 PPT 草稿。本来以为最难的部分是 prompt 设计或者 PPT 渲染,结果 80% 的时间都耗在了文档解析上,记录一下踩过的坑,顺便想请教下各位在这块都是怎么处理的。 场景大概是这样:用户上传的资

tech www.v2ex.com 2026-04-30 13:58:08+08:00

万能的L友.谁家平台的GLM5.1比较便宜一点呢?

除了Claude跟GPT,感觉就GLM好用一点了 这个是开源的 应该很多平台都部署了 但是好像也挺贵使用的,压根不怎么够用,有没有一百左右能解决管饱的GLM5.1呢 10 个帖子 - 8 位参与者 阅读完整话题

tech linux.do 2026-04-30 13:56:17+08:00

请教下:长 PDF / Word 解析后喂给 LLM,结构丢失问题大家都怎么处理

最近搞了个小项目,给一段 prompt 加一份长文档,自动出一版可以继续编辑的 PPT 草稿。本来以为最难的部分是 prompt 设计或者 PPT 渲染,结果 80% 的时间都耗在了文档解析上,记录一下踩过的坑,顺便想请教下各位在这块都是怎么处理的。 场景大概是这样:用户上传的资

tech www.v2ex.com 2026-04-30 12:58:08+08:00

[分享创造] [开源] OpenTalking:整合 LLM、流式 TTS 与 WebRTC 的实时数字人编排框架

[开源] OpenTalking:面向实时对话的开源数字人产线 (LLM+TTS+WebRTC) V 站的各位开发者朋友们大家好!今天想和大家分享我们开源的一个新项目: OpenTalking 。这是一个开源的实时数字人框架。 开发数字人对话产品时,大家往往会遇到一个痛点:各种优

tech v2ex.com 2026-04-30 12:13:22+08:00

[分享创造] [开源] OpenTalking:整合 LLM、流式 TTS 与 WebRTC 的实时数字人编排框架

[开源] OpenTalking:面向实时对话的开源数字人产线 (LLM+TTS+WebRTC) V 站的各位开发者朋友们大家好!今天想和大家分享我们开源的一个新项目: OpenTalking 。这是一个开源的实时数字人框架。 开发数字人对话产品时,大家往往会遇到一个痛点:各种优

tech v2ex.com 2026-04-30 12:13:22+08:00

[Local LLM] 私有化部署大模型的“终点”是 Mac 还是 Nvidia?

自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark

tech v2ex.com 2026-04-30 11:25:10+08:00

[Local LLM] 私有化部署大模型的“终点”是 Mac 还是 Nvidia?

自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark

tech v2ex.com 2026-04-30 11:25:10+08:00

[Local LLM] 私有化部署大模型的“终点”是 Mac 还是 Nvidia?

自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark

tech v2ex.com 2026-04-30 11:12:53+08:00

[推广] 新上 API 中转站 zerofra.me,注册送 $10 额度,希望搞一波试运行

最近搭了一个 LLM API 中转站: zerofra.me 地址: https://api.zerofra.me/ 目前主要支持: Codex / GPT 系列模型 Claude 系列模型 现在刚上线,想先邀请大家试用一下,也顺便帮忙反馈问题。 新用户注册后送 $10 测试额度

tech v2ex.com 2026-04-30 10:51:53+08:00

关于opencode go订阅的模型接入claude code报错解决

近期使用opencode go套餐模型更新挺快的,glm5.1 、ds v4 pro第一时间就上了,且kimi 2.6还有三倍额度。但之前都是直接在opencode中直接用的。 昨天想通过opencode go的模型接入claude code,也按照站内一些教程在cc-switc

tech linux.do 2026-04-30 10:50:34+08:00

[Local LLM] 私有化部署大模型的“终点”是 Mac 还是 Nvidia?

自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark

tech v2ex.com 2026-04-30 10:43:56+08:00

[推广] 新上 API 中转站 zerofra.me,注册送 $10 额度,希望搞一波试运行

最近搭了一个 LLM API 中转站: zerofra.me 地址: https://api.zerofra.me/ 目前主要支持: Codex / GPT 系列模型 Claude 系列模型 现在刚上线,想先邀请大家试用一下,也顺便帮忙反馈问题。 新用户注册后送 $10 测试额度

tech v2ex.com 2026-04-30 10:40:35+08:00