【开源】CoyoteCoder:为 Vibe Coding 而生的郊狼插件

本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺是永久有效的,接受社...
【开源】CoyoteCoder:为 Vibe Coding 而生的郊狼插件
【开源】CoyoteCoder:为 Vibe Coding 而生的郊狼插件
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容:
  • 我的帖子已经打上 开源推广 标签:
  • 我的开源项目完整开源,无未开源部分:
  • 我的开源项目已链接认可 LINUX DO 社区:
  • 我帖子内的项目介绍,AI生成、润色内容部分已截图发出:
  • 以上选择我承诺是永久有效的,接受社区和佬友监督:

以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出


书接上回:

把郊狼接入任意LLM客户端,针对vibe coding用户 开发调优
书接上回:郊狼和codex能结合一下吗 大部分已经开发完成了,经过不严谨的测试,核心功能是没啥大问题了,应该今晚就能发布第一个版本 基本原理是在本机运行了一个转发层并监听,llm客户端直接请求本地运行的这个服务并转发到上游,项目会再根据上游返回内容对郊狼发出相应的电击指令,从而实现在codex等客户端里模型一写代码就电击用户的效果 star_struck 因为没有用mcp等方案,所以理论…

最近一直在高强度 vibe coding,流程非常简单,输入,检查,再输入,得益于gpt5系列模型的能力,人工介入的地方不是很多,这让我很没有参与感 :face_with_bags_under_eyes:

昨天刷帖子看到佬友的一个回复

你的AI代理现在可以一边呻吟一边帮你理清混乱的情绪代码了。 前沿快讯
那理论上是不是可以连上郊狼?已经能想象到小男娘程序员一边写代码一边被电的场景了 distorted_face 呻吟声的来源变成了用户 face_savoring_food

搜了下现有的方案,想在codex中使用的话就需要加入mcp,但其实这种方式并不优雅,而且显而易见,会在模型上下文塞入一堆东西,电击判定还要由模型决定,实在是太不优雅了 :roll_eyes:

所以 CoyoteCoder 来了!核心原理是在 AI 客户端与上游大模型服务之间运行一个监听层,接收到上游返回事件后就像郊狼发送电击指令,实现了 “模型一说话就电击用户” 的效果

目前会监听以下内容:开始请求、响应开始、流式输出、工具调用、错误返回、响应完成事件
计划下一步支持更多事件

理论上兼容所有支持自定义 API 的 AI 客户端 :heart_eyes:

项目链接:GitHub - Piracola/CoyoteCoder: 把郊狼连接到各种Agent中 · GitHub

因为是 Vibe Coding 产物,大概会有一些我还没发现的bug,希望佬友们积极反馈呀

下一步准备加入自定义波形功能,欢迎推荐好用的波形 :face_with_peeking_eye:

4 个帖子 - 3 位参与者

阅读完整话题

来源: linux.do查看原文