LLM - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn

LLM - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 215 篇相关文章 · 第 2 / 11 页

xiaomi的这个模型太溜了,答非所问

Code from langchain_openai import OpenAI llm = OpenAI( model="mimo-v2.5-pro", api_key=XIAOMI_API_KEY, base_url=XIAOMI_API_URL, tem

tech linux.do 2026-05-01 14:09:20+08:00

这个grillme还真有点东西

我把grillme的机制融入到了我的cs-brainstorm里了,然后我发现了一个很好用的用法。 情景就是:我确实很有想法,想法多到我自己都记不住,这样的话我很难完整地交代给AI。grillme就能让AI一直问,然后我一直输出,太爽了太爽了。 爽到最后AI都说要不要停一停去开干

tech linux.do 2026-04-30 23:25:50+08:00

[Local LLM] 有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro 适合部署哪个本地模型

配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?

tech v2ex.com 2026-04-30 16:29:02+08:00

[Local LLM] 有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro 适合部署哪个本地模型

配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?

tech v2ex.com 2026-04-30 16:01:10+08:00

[Local LLM] 有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro 适合部署哪个本地模型

配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?

tech v2ex.com 2026-04-30 15:54:30+08:00

【DGX Spark教程系列-LLM部署】从0部署Qwen3.6-27B-NVFP4

导师搞了台DGX Spark,说要部署一个大模型进去,关于DGX的中文部署教程目前并不算多,和各位佬友分享一下这次部署过程完整,顺手写一篇教程。 这里计划部署的模型是 AEON-7/Qwen3.6-27B-AEON-Ultimate-Uncensored-NVFP4 · Hugg

tech linux.do 2026-04-30 15:31:12+08:00

请教下:长 PDF / Word 解析后喂给 LLM,结构丢失问题大家都怎么处理

最近搞了个小项目,给一段 prompt 加一份长文档,自动出一版可以继续编辑的 PPT 草稿。本来以为最难的部分是 prompt 设计或者 PPT 渲染,结果 80% 的时间都耗在了文档解析上,记录一下踩过的坑,顺便想请教下各位在这块都是怎么处理的。 场景大概是这样:用户上传的资

tech www.v2ex.com 2026-04-30 14:58:08+08:00

请教下:长 PDF / Word 解析后喂给 LLM,结构丢失问题大家都怎么处理

最近搞了个小项目,给一段 prompt 加一份长文档,自动出一版可以继续编辑的 PPT 草稿。本来以为最难的部分是 prompt 设计或者 PPT 渲染,结果 80% 的时间都耗在了文档解析上,记录一下踩过的坑,顺便想请教下各位在这块都是怎么处理的。 场景大概是这样:用户上传的资

tech www.v2ex.com 2026-04-30 14:58:08+08:00

请教下:长 PDF / Word 解析后喂给 LLM,结构丢失问题大家都怎么处理

最近搞了个小项目,给一段 prompt 加一份长文档,自动出一版可以继续编辑的 PPT 草稿。本来以为最难的部分是 prompt 设计或者 PPT 渲染,结果 80% 的时间都耗在了文档解析上,记录一下踩过的坑,顺便想请教下各位在这块都是怎么处理的。 场景大概是这样:用户上传的资

tech www.v2ex.com 2026-04-30 13:58:08+08:00

请教下:长 PDF / Word 解析后喂给 LLM,结构丢失问题大家都怎么处理

最近搞了个小项目,给一段 prompt 加一份长文档,自动出一版可以继续编辑的 PPT 草稿。本来以为最难的部分是 prompt 设计或者 PPT 渲染,结果 80% 的时间都耗在了文档解析上,记录一下踩过的坑,顺便想请教下各位在这块都是怎么处理的。 场景大概是这样:用户上传的资

tech www.v2ex.com 2026-04-30 12:58:08+08:00

[分享创造] [开源] OpenTalking:整合 LLM、流式 TTS 与 WebRTC 的实时数字人编排框架

[开源] OpenTalking:面向实时对话的开源数字人产线 (LLM+TTS+WebRTC) V 站的各位开发者朋友们大家好!今天想和大家分享我们开源的一个新项目: OpenTalking 。这是一个开源的实时数字人框架。 开发数字人对话产品时,大家往往会遇到一个痛点:各种优

tech v2ex.com 2026-04-30 12:13:22+08:00

[分享创造] [开源] OpenTalking:整合 LLM、流式 TTS 与 WebRTC 的实时数字人编排框架

[开源] OpenTalking:面向实时对话的开源数字人产线 (LLM+TTS+WebRTC) V 站的各位开发者朋友们大家好!今天想和大家分享我们开源的一个新项目: OpenTalking 。这是一个开源的实时数字人框架。 开发数字人对话产品时,大家往往会遇到一个痛点:各种优

tech v2ex.com 2026-04-30 12:13:22+08:00

[Local LLM] 私有化部署大模型的“终点”是 Mac 还是 Nvidia?

自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark

tech v2ex.com 2026-04-30 11:25:10+08:00

[Local LLM] 私有化部署大模型的“终点”是 Mac 还是 Nvidia?

自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark

tech v2ex.com 2026-04-30 11:25:10+08:00

[Local LLM] 私有化部署大模型的“终点”是 Mac 还是 Nvidia?

自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark

tech v2ex.com 2026-04-30 11:12:53+08:00

[推广] 新上 API 中转站 zerofra.me,注册送 $10 额度,希望搞一波试运行

最近搭了一个 LLM API 中转站: zerofra.me 地址: https://api.zerofra.me/ 目前主要支持: Codex / GPT 系列模型 Claude 系列模型 现在刚上线,想先邀请大家试用一下,也顺便帮忙反馈问题。 新用户注册后送 $10 测试额度

tech v2ex.com 2026-04-30 10:51:53+08:00

[Local LLM] 私有化部署大模型的“终点”是 Mac 还是 Nvidia?

自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark

tech v2ex.com 2026-04-30 10:43:56+08:00

[推广] 新上 API 中转站 zerofra.me,注册送 $10 额度,希望搞一波试运行

最近搭了一个 LLM API 中转站: zerofra.me 地址: https://api.zerofra.me/ 目前主要支持: Codex / GPT 系列模型 Claude 系列模型 现在刚上线,想先邀请大家试用一下,也顺便帮忙反馈问题。 新用户注册后送 $10 测试额度

tech v2ex.com 2026-04-30 10:40:35+08:00

[Local LLM] 私有化部署大模型的“终点”是 Mac 还是 Nvidia?

自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark

tech v2ex.com 2026-04-30 10:40:34+08:00

[推广] 新上 API 中转站 zerofra.me,注册送 $10 额度,希望搞一波试运行

最近搭了一个 LLM API 中转站: zerofra.me 地址: https://api.zerofra.me/ 目前主要支持: Codex / GPT 系列模型 Claude 系列模型 现在刚上线,想先邀请大家试用一下,也顺便帮忙反馈问题。 新用户注册后送 $10 测试额度

tech v2ex.com 2026-04-30 10:19:19+08:00