部署 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第26页 - 钛刻科技 | TCTI.cn

部署 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第26页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 598 篇相关文章 · 第 26 / 30 页

[Local LLM] 想在本地部署 OCR 服务,解析美团的外卖订单截图,求推荐一个好用的 OCR 模型

公司做的是美团业务,需要定期解析一批美团的订单截图(也有一些是手机相机拍的订单页面图片),提取出其中的订单号码。 我试用了下腾讯的 ocr 识别成功率很高,就是太贵了,图片量很大遭不住。哪位老哥研究过 OCR ,能不能推荐一个适合本地部署的,公司有 5060 显卡。

tech v2ex.com 2026-04-20 18:05:02+08:00

[Local LLM] 想在本地部署 OCR 服务,解析美团的外卖订单截图,求推荐一个好用的 OCR 模型

公司做的是美团业务,需要定期解析一批美团的订单截图(也有一些是手机相机拍的订单页面图片),提取出其中的订单号码。 我试用了下腾讯的 ocr 识别成功率很高,就是太贵了,图片量很大遭不住。哪位老哥研究过 OCR ,能不能推荐一个适合本地部署的,公司有 5060 显卡。

tech v2ex.com 2026-04-20 17:59:16+08:00

部署本地模型 token 输出万能公式

比如看 dgx spark 这台机子,部署 31B BF16 gemma 这台机子的带宽 273 GB/s 31B 参数 × 2 bytes (BF16) ÷ 273 GB/s = 每个 token 227 ms = 理论最大 4.4 token/s 实际能到 3token/s

tech www.v2ex.com 2026-04-20 17:54:39+08:00

[Local LLM] 想在本地部署 OCR 服务,解析美团的外卖订单截图,求推荐一个好用的 OCR 模型

公司做的是美团业务,需要定期解析一批美团的订单截图(也有一些是手机相机拍的订单页面图片),提取出其中的订单号码。 我试用了下腾讯的 ocr 识别成功率很高,就是太贵了,图片量很大遭不住。哪位老哥研究过 OCR ,能不能推荐一个适合本地部署的,公司有 5060 显卡。

tech v2ex.com 2026-04-20 17:44:06+08:00

[Local LLM] 部署本地模型 token 输出万能公式

比如看 dgx spark 这台机子,部署 31B BF16 gemma 这台机子的带宽 273 GB/s 31B 参数 × 2 bytes (BF16) ÷ 273 GB/s = 每个 token 227 ms = 理论最大 4.4 token/s 实际能到 3token/s

tech v2ex.com 2026-04-20 17:40:14+08:00

[Local LLM] 想在本地部署 OCR 服务,解析美团的外卖订单截图,求推荐一个好用的 OCR 模型

公司做的是美团业务,需要定期解析一批美团的订单截图(也有一些是手机相机拍的订单页面图片),提取出其中的订单号码。 我试用了下腾讯的 ocr 识别成功率很高,就是太贵了,图片量很大遭不住。哪位老哥研究过 OCR ,能不能推荐一个适合本地部署的,公司有 5060 显卡。

tech v2ex.com 2026-04-20 17:36:24+08:00

各位大佬,反代GPTplus必须部署在国外的服务器上吗?

我自己有个腾讯云华北的,反代每次都报错区域不支持 6 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-20 17:28:47+08:00

[Local LLM] 想在本地部署 OCR 服务,解析美团的外卖订单截图,求推荐一个好用的 OCR 模型

公司做的是美团业务,需要定期解析一批美团的订单截图(也有一些是手机相机拍的订单页面图片),提取出其中的订单号码。 我试用了下腾讯的 ocr 识别成功率很高,就是太贵了,图片量很大遭不住。哪位老哥研究过 OCR ,能不能推荐一个适合本地部署的,公司有 5060 显卡。

tech v2ex.com 2026-04-20 17:26:12+08:00

想在本地部署 OCR 服务,解析美团的外卖订单截图,求推荐一个好用的 OCR 模型

公司做的是美团业务,需要定期解析一批美团的订单截图(也有一些是手机相机拍的订单页面图片),提取出其中的订单号码。 我试用了下腾讯的 ocr 识别成功率很高,就是太贵了,图片量很大遭不住。哪位老哥研究过 OCR ,能不能推荐一个适合本地部署的,公司有 5060 显卡。

tech www.v2ex.com 2026-04-20 17:26:12+08:00

[Local LLM] 想在本地部署 OCR 服务,解析美团的外卖订单截图,求推荐一个好用的 OCR 模型

公司做的是美团业务,需要定期解析一批美团的订单截图(也有一些是手机相机拍的订单页面图片),提取出其中的订单号码。 我试用了下腾讯的 ocr 识别成功率很高,就是太贵了,图片量很大遭不住。哪位老哥研究过 OCR ,能不能推荐一个适合本地部署的,公司有 5060 显卡。

tech v2ex.com 2026-04-20 17:18:48+08:00

[Local LLM] 想在本地部署 OCR 服务,解析美团的外卖订单截图,求推荐一个好用的 OCR 模型

公司做的是美团业务,需要定期解析一批美团的订单截图(也有一些是手机相机拍的订单页面图片),提取出其中的订单号码。 我试用了下腾讯的 ocr 识别成功率很高,就是太贵了,图片量很大遭不住。哪位老哥研究过 OCR ,能不能推荐一个适合本地部署的,公司有 5060 显卡。

tech v2ex.com 2026-04-20 17:08:42+08:00

想在本地部署 OCR 服务,解析美团的外卖订单截图,求推荐一个好用的 OCR 模型

公司做的是美团业务,需要定期解析一批美团的订单截图(也有一些是手机相机拍的订单页面图片),提取出其中的订单号码。 我试用了下腾讯的 ocr 识别成功率很高,就是太贵了,图片量很大遭不住。哪位老哥研究过 OCR ,能不能推荐一个适合本地部署的,公司有 5060 显卡。

tech www.v2ex.com 2026-04-20 16:56:41+08:00

Cloudflare 可以发邮件了,来等个大佬的好用客户端

最近 Cloudflare 宣布推出 Cloudflare Email Service 内测版 ,但是他官方自己的部署版本,挺麻烦,也不好用。 issue 里也是说部署出错。 已经过去好几天了,蹲个佬友的客户端。 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-20 16:21:29+08:00

我本地部署了 gemma 26B Q5-K-M,显卡12G,我发现它竟然不会用工具。

是否我哪里配置错误了? E4B 的 gemma 会用 websearch 或者 curl 去查,但26B 的几竟然不会! 部署方式:OLLMA + gemma 26B Q5-K-M (量化版本),显存12GB,4070TI + 64G 内存。 2 个帖子 - 2 位参与者 阅读完

tech linux.do 2026-04-20 16:11:11+08:00

老哥们这种阿里部署的和直供的有什么区别吗

老哥们这种阿里部署的和直供的有什么区别吗 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-20 16:00:45+08:00

[Local LLM] 想在本地部署 OCR 服务,解析美团的外卖订单截图,求推荐一个好用的 OCR 模型

公司做的是美团业务,需要定期解析一批美团的订单截图(也有一些是手机相机拍的订单页面图片),提取出其中的订单号码。 我试用了下腾讯的 ocr 识别成功率很高,就是太贵了,图片量很大遭不住。哪位老哥研究过 OCR ,能不能推荐一个适合本地部署的,公司有 5060 显卡。

tech v2ex.com 2026-04-20 15:56:30+08:00

[问与答] 想在本地部署 OCR 服务,解析美团的外卖订单截图,求推荐一个好用的 OCR 模型

公司做的是美团业务,需要定期解析一批美团的订单截图(也有一些是手机相机拍的订单页面图片),提取出其中的订单号码。 我试用了下腾讯的 ocr 识别成功率很高,就是太贵了,图片量很大遭不住。哪位老哥研究过 OCR ,能不能推荐一个适合本地部署的,公司有 5060 显卡。

tech v2ex.com 2026-04-20 15:50:13+08:00

[问与答] 想在本地部署 OCR 服务,解析美团的外卖订单截图,求推荐一个好用的 OCR 模型

公司做的是美团业务,需要定期解析一批美团的订单截图(也有一些是手机相机拍的订单页面图片),提取出其中的订单号码。 我试用了下腾讯的 ocr 识别成功率很高,就是太贵了,图片量很大遭不住。哪位老哥研究过 OCR ,能不能推荐一个适合本地部署的,公司有 5060 显卡。

tech v2ex.com 2026-04-20 15:37:00+08:00

有没有开源大模型的评测网站?

有没有本地部署的开源大模型的评测平台?或者,可以获取那些可个人本地部署的大模型的token?我想测试测试,个人本地部署的大模型的能力。比如,最新的gemma4 之类的,不同级别的模型。 想实际验证一下,部署本地开源模型,是否可行?是否值得? 没有亲身测试,实在是不敢花那么多钱!

tech linux.do 2026-04-20 15:10:34+08:00

请教,本地部署大模型,是否可以一定程度上替代现在的claude,gpt?

我是搞C++的,最近使用量非常大。opus 如果全天都蹬,一两百,甚至更多。改用gpt5.4后,虽然,消耗降低了,但是开发时间大大延长了。 我有个想法,开发的方案,由opus4.7、gtp5.4来做,实施计划完成后的代码开发,审核,单元测试,系统联调使用本地部署的模型是不是可以?

tech linux.do 2026-04-20 12:12:37+08:00