llm - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第5页 - 钛刻科技 | TCTI.cn

llm - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第5页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 214 篇相关文章 · 第 5 / 11 页

【开源】lens | 目标是打造最强的个人LLM聚合网关系统

本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺

tech linux.do 2026-04-28 21:01:44+08:00

类似litellm、newapi平台求推荐

公司主要接入bedrock,openai,Anthropic,Openrouter,火山方舟,deepseek,google vertex,都是通过官渠接入 主要需求: 通过key或者认证文件接入后可以在通过自定义key分发 控制key可以使用的模型 调用方式统一 可以看到自定义

tech linux.do 2026-04-28 17:35:10+08:00

[问与答] 求助万能的 v2,想用强大模型进行 10 万+次调用目前的最合适的方案是什么?

写论文有大量 LLM 任务需要调用,希望对基于描述性语言的非结构化数据进行分析, 目前估算了一下大概需要 10 万次左右的调用,每次输入 token 数量在 20-50K 之间(中型任务),输出大概在 20K 左右。 粗略估算了一下大概是需要 3000M 的输入+2000M 的输

tech v2ex.com 2026-04-28 09:16:59+08:00

[问与答] 求助万能的 v2,想用强大模型进行 10 万+次调用目前的最合适的方案是什么?

写论文有大量 LLM 任务需要调用,希望对基于描述性语言的非结构化数据进行分析, 目前估算了一下大概需要 10 万次左右的调用,每次输入 token 数量在 20-50K 之间(中型任务),输出大概在 20K 左右。 粗略估算了一下大概是需要 3000M 的输入+2000M 的输

tech v2ex.com 2026-04-28 09:14:43+08:00

[问与答] 求助万能的 v2,想用强大模型进行 10 万+次调用目前的最合适的方案是什么?

写论文有大量 LLM 任务需要调用,希望对基于描述性语言的非结构化数据进行分析, 目前估算了一下大概需要 10 万次左右的调用,每次输入 token 数量在 20-50K 之间(中型任务),输出大概在 20K 左右。 粗略估算了一下大概是需要 3000M 的输入+2000M 的输

tech v2ex.com 2026-04-28 08:48:32+08:00

[问与答] 求助万能的 v2,想用强大模型进行 10 万+次调用目前的最合适的方案是什么?

写论文有大量 LLM 任务需要调用,希望对基于描述性语言的非结构化数据进行分析, 目前估算了一下大概需要 10 万次左右的调用,每次输入 token 数量在 20-50K 之间(中型任务),输出大概在 20K 左右。 粗略估算了一下大概是需要 3000M 的输入+2000M 的输

tech v2ex.com 2026-04-28 07:05:30+08:00

[问与答] 求助万能的 v2,想用强大模型进行 10 万+次调用目前的最合适的方案是什么?

写论文有大量 LLM 任务需要调用,希望对基于描述性语言的非结构化数据进行分析, 目前估算了一下大概需要 10 万次左右的调用,每次输入 token 数量在 20-50K 之间(中型任务),输出大概在 20K 左右。 粗略估算了一下大概是需要 3000M 的输入+2000M 的输

tech v2ex.com 2026-04-28 04:49:00+08:00

[问与答] 求助万能的 v2,想用强大模型进行 10 万+次调用目前的最合适的方案是什么?

写论文有大量 LLM 任务需要调用,希望对基于描述性语言的非结构化数据进行分析, 目前估算了一下大概需要 10 万次左右的调用,每次输入 token 数量在 20-50K 之间(中型任务),输出大概在 20K 左右。 粗略估算了一下大概是需要 3000M 的输入+2000M 的输

tech v2ex.com 2026-04-28 03:55:53+08:00

[问与答] 求助万能的 v2,想用强大模型进行 10 万+次调用目前的最合适的方案是什么?

写论文有大量 LLM 任务需要调用,希望对基于描述性语言的非结构化数据进行分析, 目前估算了一下大概需要 10 万次左右的调用,每次输入 token 数量在 20-50K 之间(中型任务),输出大概在 20K 左右。 粗略估算了一下大概是需要 3000M 的输入+2000M 的输

tech v2ex.com 2026-04-28 03:45:52+08:00

[Local LLM] 用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了

https://github.com/antirez/llama.cpp-deepseek-v4-flash

tech v2ex.com 2026-04-28 01:53:59+08:00

当前的AI路线,真能最后达成AGI么?

总感觉LLM其实并不理解庞大的知识库,有点倒果为因的意思?要实现真正的AGI,当前这种力大砖飞无限回归纯靠算力堆的思路,真是正确的吗? 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-27 21:00:46+08:00

[Local LLM] 全球本地部署开发者们一起,打造一个真正属于开源社区的 Coding Agent 了

同志们,是时候打造一把真正属于开源社区的 Coding Agent 了! 现状:我们被大厂“喂屎”,还要自己擦屁股 我写过 kaiwu (一个本地模型部署器),结果发现—— 用 Local LLM 做开发的朋友,多得超出想象 。 大家不断提需求:上下文压缩、Think 模式开关、

tech v2ex.com 2026-04-27 19:33:20+08:00

[Local LLM] 全球本地部署开发者们一起,打造一个真正属于开源社区的 Coding Agent 了

同志们,是时候打造一把真正属于开源社区的 Coding Agent 了! 现状:我们被大厂“喂屎”,还要自己擦屁股 我写过 kaiwu (一个本地模型部署器),结果发现—— 用 Local LLM 做开发的朋友,多得超出想象 。 大家不断提需求:上下文压缩、Think 模式开关、

tech v2ex.com 2026-04-27 18:27:57+08:00

[Local LLM] 全球本地部署开发者们一起,打造一个真正属于开源社区的 Coding Agent 了

同志们,是时候打造一把真正属于开源社区的 Coding Agent 了! 现状:我们被大厂“喂屎”,还要自己擦屁股 我写过 kaiwu (一个本地模型部署器),结果发现—— 用 Local LLM 做开发的朋友,多得超出想象 。 大家不断提需求:上下文压缩、Think 模式开关、

tech v2ex.com 2026-04-27 18:16:27+08:00

佬友有用Blazor全栈的吗,有没有感觉主流LLM画razor前端都很吃力

纯后端,不了解前端,因工作原因用的Blazor全栈,我一般是先用stitch生成一个html然后让llm去复刻,但布局啊样式级别啊啥的每次大改前端以后都必然会有问题,都得苦哈哈的开着playwright看着F12一个个调。。。 现在在犹豫要不要干脆把前端换成主流的vue或者rea

tech linux.do 2026-04-27 17:18:52+08:00

[职场话题] 想请教一下,现在企业内部非研发岗位一般是怎么用 AI / LLM 的?

很久没上班了,和现在的企业内部实践有点脱节,想请教下各位。 对于非研发岗位(比如运营、市场、销售、人事、行政、财务、客服、法务助理、项目管理等),现在在公司里实际是怎么用 AI 的? 1. 公司内部自研 Ai 相关平台和工具?员工直接用现成的? 2. 用飞书、钉钉、Coze 这类

tech v2ex.com 2026-04-27 16:33:51+08:00

[职场话题] 想请教一下,现在企业内部非研发岗位一般是怎么用 AI / LLM 的?

很久没上班了,和现在的企业内部实践有点脱节,想请教下各位。 对于非研发岗位(比如运营、市场、销售、人事、行政、财务、客服、法务助理、项目管理等),现在在公司里实际是怎么用 AI 的? 1. 公司内部自研 Ai 相关平台和工具?员工直接用现成的? 2. 用飞书、钉钉、Coze 这类

tech v2ex.com 2026-04-27 16:22:27+08:00

[llms.txt] seedance25.run llms.txt

llms.txt: https://seedance25.run/llms.txt page: https://seedance25.run/

tech v2ex.com 2026-04-27 15:01:14+08:00

xllm 真的比 vllm+plugin 性能好么?

tech www.v2ex.com 2026-04-27 13:46:35+08:00

MCP Server 返回非文本文件

例如在 Cherry Studio 里,可以给 LLM 上传文件。 但如果我创建 MCP Server, 似乎 LLM 无法识别二进制文件:GPT-5.5, Opus-4.7 显然都是有读 PDF 文件的能力的,但是它不能读 MCP Server 返回的 PDF 文件。 MCP

tech linux.do 2026-04-26 22:47:42+08:00