llm - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第10页 - 钛刻科技 | TCTI.cn

llm - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第10页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 224 篇相关文章 · 第 10 / 12 页

[Local LLM] 多台 GPU 之间怎么组网互联?

比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习

tech v2ex.com 2026-04-21 19:04:12+08:00

[Local LLM] 多台 GPU 之间怎么组网互联?

比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习

tech v2ex.com 2026-04-21 18:55:36+08:00

[Local LLM] 多台 GPU 之间怎么组网互联?

比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习

tech v2ex.com 2026-04-21 17:52:14+08:00

[Local LLM] 多台 GPU 之间怎么组网互联?

比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习

tech v2ex.com 2026-04-21 17:52:14+08:00

[推广] LiteLLM 接 AWS Bedrock 做了个 Claude API 平台,现在找种子用户, V2EX 用户专属 100 元无门槛优惠券

我做了一个叫 huancode.com 的 Claude API 平台,现在刚上线,在找 独立开发者 和 中小企业里的 AI Coding 布道者 做种子用户。V2EX 用户专属福利:注册后联系我或评论,赠送 100 元 无门槛体验额度,使用过程中的感受和需求在本帖回复反馈就行。

tech v2ex.com 2026-04-21 17:40:22+08:00

[推广] LiteLLM 接 AWS Bedrock 做了个 Claude API 平台,现在找种子用户, V2EX 用户专属 100 元无门槛优惠券

我做了一个叫 huancode.com 的 Claude API 平台,现在刚上线,在找 独立开发者 和 中小企业里的 AI Coding 布道者 做种子用户。V2EX 用户专属福利:注册后联系我或评论,赠送 100 元 无门槛体验额度,使用过程中的感受和需求在本帖回复反馈就行。

tech v2ex.com 2026-04-21 17:40:22+08:00

[推广] LiteLLM 接 AWS Bedrock 做了个 Claude API 平台,现在找种子用户, V2EX 用户专属 100 元无门槛优惠券

我做了一个叫 huancode.com 的 Claude API 平台,现在刚上线,在找 独立开发者 和 中小企业里的 AI Coding 布道者 做种子用户。V2EX 用户专属福利:注册后联系我或评论,赠送 100 元 无门槛体验额度,使用过程中的感受和需求在本帖回复反馈就行。

tech v2ex.com 2026-04-21 17:28:19+08:00

[推广] LiteLLM 接 AWS Bedrock 做了个 Claude API 平台,现在找种子用户, V2EX 用户专属 100 元无门槛优惠券

我做了一个叫 huancode.com 的 Claude API 平台,现在刚上线,在找 独立开发者 和 中小企业里的 AI Coding 布道者 做种子用户。V2EX 用户专属福利:注册后联系我或评论,赠送 100 元 无门槛体验额度,使用过程中的感受和需求在本帖回复反馈就行。

tech v2ex.com 2026-04-21 17:19:33+08:00

[推广] LiteLLM 接 AWS Bedrock 做了个 Claude API 平台,现在找种子用户, V2EX 用户专属 100 元无门槛优惠券

我做了一个叫 huancode.com 的 Claude API 平台,现在刚上线,在找 独立开发者 和 中小企业里的 AI Coding 布道者 做种子用户。V2EX 用户专属福利:注册后联系我或评论,赠送 100 元 无门槛体验额度,使用过程中的感受和需求在本帖回复反馈就行。

tech v2ex.com 2026-04-21 17:08:35+08:00

[推广] LiteLLM 接 AWS Bedrock 做了个 Claude API 平台,现在找种子用户, V2EX 用户专属 100 元无门槛优惠券

我做了一个叫 huancode.com 的 Claude API 平台,现在刚上线,在找 独立开发者 和 中小企业里的 AI Coding 布道者 做种子用户。V2EX 用户专属福利:注册后联系我或评论,赠送 100 元 无门槛体验额度,使用过程中的感受和需求在本帖回复反馈就行。

tech v2ex.com 2026-04-21 16:58:30+08:00

[推广] LiteLLM 接 AWS Bedrock 做了个 Claude API 平台,现在找种子用户, V2EX 用户专属 100 元无门槛优惠券

我做了一个叫 huancode.com 的 Claude API 平台,现在刚上线,在找 独立开发者 和 中小企业里的 AI Coding 布道者 做种子用户。V2EX 用户专属福利:注册后联系我或评论,赠送 100 元 无门槛体验额度,使用过程中的感受和需求在本帖回复反馈就行。

tech v2ex.com 2026-04-21 16:46:05+08:00

有人把AI装进U盘了,还是无审查版的!

有人把AI装进U盘了,还是无审查版的! 这个开源项目USB-Uncensored-LLM直接把Gemma、Qwen等大模型塞进U盘,插哪台电脑就在哪跑,Win/Mac/Linux全兼容,完全离线,零联网,聊天记录还能持久保存。 最骚的是:模型只需下载一次,多平台共用,不重复占空间

tech linux.do 2026-04-21 16:39:47+08:00

[推广] LiteLLM 接 AWS Bedrock 做了个 Claude API 平台,现在找种子用户, V2EX 用户专属 100 元无门槛优惠券

我做了一个叫 huancode.com 的 Claude API 平台,现在刚上线,在找 独立开发者 和 中小企业里的 AI Coding 布道者 做种子用户。V2EX 用户专属福利:注册后联系我或评论,赠送 100 元 无门槛体验额度,使用过程中的感受和需求在本帖回复反馈就行。

tech v2ex.com 2026-04-21 16:24:50+08:00

市面上开源的 llm 网关都有啥,兄弟们给推荐几个

佬友们给推荐几个市面上开源的 llm 网关,能接接入的大模型越全越好,省的出现了各种协议还得单独对接,能计费,能配置,能负载均衡这些都是必备的。刚才看了两个先共享出来 APIPark/readme/readme-zh-cn.md at main · APIParkLab/APIP

tech linux.do 2026-04-21 12:50:03+08:00

claude自己给出的话术黑名单

经常写一些TODO占位符也是够了 ,有没有其他方法改掉llm偷懒的坏毛病啊 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-21 10:14:44+08:00

[Local LLM] 想在本地部署 OCR 服务,解析美团的外卖订单截图,求推荐一个好用的 OCR 模型

公司做的是美团业务,需要定期解析一批美团的订单截图(也有一些是手机相机拍的订单页面图片),提取出其中的订单号码。 我试用了下腾讯的 ocr 识别成功率很高,就是太贵了,图片量很大遭不住。哪位老哥研究过 OCR ,能不能推荐一个适合本地部署的,公司有 5060 显卡。

tech v2ex.com 2026-04-20 18:05:02+08:00

[Local LLM] 想在本地部署 OCR 服务,解析美团的外卖订单截图,求推荐一个好用的 OCR 模型

公司做的是美团业务,需要定期解析一批美团的订单截图(也有一些是手机相机拍的订单页面图片),提取出其中的订单号码。 我试用了下腾讯的 ocr 识别成功率很高,就是太贵了,图片量很大遭不住。哪位老哥研究过 OCR ,能不能推荐一个适合本地部署的,公司有 5060 显卡。

tech v2ex.com 2026-04-20 17:59:16+08:00

[Local LLM] 有没有简单版的 new-api 项目

个人使用 new-api 配置项太多了,看的我头疼。 有没有简单版本的

tech v2ex.com 2026-04-20 17:48:21+08:00

[Local LLM] 想在本地部署 OCR 服务,解析美团的外卖订单截图,求推荐一个好用的 OCR 模型

公司做的是美团业务,需要定期解析一批美团的订单截图(也有一些是手机相机拍的订单页面图片),提取出其中的订单号码。 我试用了下腾讯的 ocr 识别成功率很高,就是太贵了,图片量很大遭不住。哪位老哥研究过 OCR ,能不能推荐一个适合本地部署的,公司有 5060 显卡。

tech v2ex.com 2026-04-20 17:44:06+08:00

[Local LLM] 部署本地模型 token 输出万能公式

比如看 dgx spark 这台机子,部署 31B BF16 gemma 这台机子的带宽 273 GB/s 31B 参数 × 2 bytes (BF16) ÷ 273 GB/s = 每个 token 227 ms = 理论最大 4.4 token/s 实际能到 3token/s

tech v2ex.com 2026-04-20 17:40:14+08:00