把郊狼接入任意LLM客户端,针对vibe coding用户

书接上回: 郊狼和codex能结合一下吗 大部分已经开发完成了,经过不严谨的测试,核心功能是没啥大问题了,应该今晚就能发布第一个版本 基本原理是在本机运行了一个转发层并监听,llm客户端直接请求本地运行的这个服务并转发到上游,项目会再根据上游返回内容对郊狼发出相应的电击指令,从而实现在codex等客...
把郊狼接入任意LLM客户端,针对vibe coding用户
把郊狼接入任意LLM客户端,针对vibe coding用户

书接上回:郊狼和codex能结合一下吗

大部分已经开发完成了,经过不严谨的测试,核心功能是没啥大问题了,应该今晚就能发布第一个版本

基本原理是在本机运行了一个转发层并监听,llm客户端直接请求本地运行的这个服务并转发到上游,项目会再根据上游返回内容对郊狼发出相应的电击指令,从而实现在codex等客户端里模型一写代码就电击用户的效果 :star_struck:

因为没有用mcp等方案,所以理论上兼容任何一个可以自定义API的llm客户端 :face_with_peeking_eye:

image

8 个帖子 - 5 位参与者

阅读完整话题

来源: linux.do查看原文