把郊狼接入任意LLM客户端,针对vibe coding用户
书接上回: 郊狼和codex能结合一下吗 大部分已经开发完成了,经过不严谨的测试,核心功能是没啥大问题了,应该今晚就能发布第一个版本 基本原理是在本机运行了一个转发层并监听,llm客户端直接请求本地运行的这个服务并转发到上游,项目会再根据上游返回内容对郊狼发出相应的电击指令,从而
LLM - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第5页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 215 篇相关文章 · 第 5 / 11 页
书接上回: 郊狼和codex能结合一下吗 大部分已经开发完成了,经过不严谨的测试,核心功能是没啥大问题了,应该今晚就能发布第一个版本 基本原理是在本机运行了一个转发层并监听,llm客户端直接请求本地运行的这个服务并转发到上游,项目会再根据上游返回内容对郊狼发出相应的电击指令,从而
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺
公司主要接入bedrock,openai,Anthropic,Openrouter,火山方舟,deepseek,google vertex,都是通过官渠接入 主要需求: 通过key或者认证文件接入后可以在通过自定义key分发 控制key可以使用的模型 调用方式统一 可以看到自定义
写论文有大量 LLM 任务需要调用,希望对基于描述性语言的非结构化数据进行分析, 目前估算了一下大概需要 10 万次左右的调用,每次输入 token 数量在 20-50K 之间(中型任务),输出大概在 20K 左右。 粗略估算了一下大概是需要 3000M 的输入+2000M 的输
写论文有大量 LLM 任务需要调用,希望对基于描述性语言的非结构化数据进行分析, 目前估算了一下大概需要 10 万次左右的调用,每次输入 token 数量在 20-50K 之间(中型任务),输出大概在 20K 左右。 粗略估算了一下大概是需要 3000M 的输入+2000M 的输
写论文有大量 LLM 任务需要调用,希望对基于描述性语言的非结构化数据进行分析, 目前估算了一下大概需要 10 万次左右的调用,每次输入 token 数量在 20-50K 之间(中型任务),输出大概在 20K 左右。 粗略估算了一下大概是需要 3000M 的输入+2000M 的输
写论文有大量 LLM 任务需要调用,希望对基于描述性语言的非结构化数据进行分析, 目前估算了一下大概需要 10 万次左右的调用,每次输入 token 数量在 20-50K 之间(中型任务),输出大概在 20K 左右。 粗略估算了一下大概是需要 3000M 的输入+2000M 的输
写论文有大量 LLM 任务需要调用,希望对基于描述性语言的非结构化数据进行分析, 目前估算了一下大概需要 10 万次左右的调用,每次输入 token 数量在 20-50K 之间(中型任务),输出大概在 20K 左右。 粗略估算了一下大概是需要 3000M 的输入+2000M 的输
写论文有大量 LLM 任务需要调用,希望对基于描述性语言的非结构化数据进行分析, 目前估算了一下大概需要 10 万次左右的调用,每次输入 token 数量在 20-50K 之间(中型任务),输出大概在 20K 左右。 粗略估算了一下大概是需要 3000M 的输入+2000M 的输
写论文有大量 LLM 任务需要调用,希望对基于描述性语言的非结构化数据进行分析, 目前估算了一下大概需要 10 万次左右的调用,每次输入 token 数量在 20-50K 之间(中型任务),输出大概在 20K 左右。 粗略估算了一下大概是需要 3000M 的输入+2000M 的输
https://github.com/antirez/llama.cpp-deepseek-v4-flash
总感觉LLM其实并不理解庞大的知识库,有点倒果为因的意思?要实现真正的AGI,当前这种力大砖飞无限回归纯靠算力堆的思路,真是正确的吗? 1 个帖子 - 1 位参与者 阅读完整话题
同志们,是时候打造一把真正属于开源社区的 Coding Agent 了! 现状:我们被大厂“喂屎”,还要自己擦屁股 我写过 kaiwu (一个本地模型部署器),结果发现—— 用 Local LLM 做开发的朋友,多得超出想象 。 大家不断提需求:上下文压缩、Think 模式开关、
同志们,是时候打造一把真正属于开源社区的 Coding Agent 了! 现状:我们被大厂“喂屎”,还要自己擦屁股 我写过 kaiwu (一个本地模型部署器),结果发现—— 用 Local LLM 做开发的朋友,多得超出想象 。 大家不断提需求:上下文压缩、Think 模式开关、
同志们,是时候打造一把真正属于开源社区的 Coding Agent 了! 现状:我们被大厂“喂屎”,还要自己擦屁股 我写过 kaiwu (一个本地模型部署器),结果发现—— 用 Local LLM 做开发的朋友,多得超出想象 。 大家不断提需求:上下文压缩、Think 模式开关、
纯后端,不了解前端,因工作原因用的Blazor全栈,我一般是先用stitch生成一个html然后让llm去复刻,但布局啊样式级别啊啥的每次大改前端以后都必然会有问题,都得苦哈哈的开着playwright看着F12一个个调。。。 现在在犹豫要不要干脆把前端换成主流的vue或者rea
很久没上班了,和现在的企业内部实践有点脱节,想请教下各位。 对于非研发岗位(比如运营、市场、销售、人事、行政、财务、客服、法务助理、项目管理等),现在在公司里实际是怎么用 AI 的? 1. 公司内部自研 Ai 相关平台和工具?员工直接用现成的? 2. 用飞书、钉钉、Coze 这类
很久没上班了,和现在的企业内部实践有点脱节,想请教下各位。 对于非研发岗位(比如运营、市场、销售、人事、行政、财务、客服、法务助理、项目管理等),现在在公司里实际是怎么用 AI 的? 1. 公司内部自研 Ai 相关平台和工具?员工直接用现成的? 2. 用飞书、钉钉、Coze 这类
llms.txt: https://seedance25.run/llms.txt page: https://seedance25.run/