- 我的帖子已经打上 开源推广 标签: 是
- 我的开源项目完整开源,无未开源部分: 是
- 我的开源项目已链接认可 LINUX DO 社区: 是
- 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是
- 以上选择我承诺是永久有效的,接受社区和佬友监督: 是
以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出
来源
不知道佬友们有没有像我一样,平时搓项目都是在公司摸鱼的时候搓的。然后作为一个纯靠AI去写代码的人,我也不会自己去review代码。
之前搓出来两个大屎山项目都被我弃掉了。中间换了很多不同的工作流,像是gstack、superpowers、skills、everything-claude-code等等。我觉得如果是额度不够,那可能是我自己氪的不够狠的问题,但是我觉得最大的痛点是:
- 你要记很多斜杠指令,很麻烦,我想让AI自己全自动跑完就好,我只要制定计划。
- 自动review的时候,还是会出现很多问题,如何更好的提升代码质量一种很苦恼我。
- 很难放心启动让AI自己一个phase、一个phase的跑全部的任务(我自己的任务划分习惯是,task - wave - phase - Gate)
现在有的很多关于Agent Team的项目,有的又感觉太重了,非常烧token。加上我本身又比较忙,加上是自己暗搓搓去搞的项目。作为老MC玩家,真的非常迫切的需要一个比较轻量的全自动方案。
之前有在L站分享过,我觉得实际上这个是一个管理问题(本人金融出身的)。加上我觉得其实各大模型厂商,在加速开发这些subagent功能什么的,其实感觉不需要那么重的,外部的架构才能让模型乖乖干活。所以我在我自己项目上尝试,打磨了很久,搓出来下面这个工作流。
具体逻辑
flowchart TD
P[UserPromptSubmit] --> R[do-it-router<br/>分类 Light / Standard / Heavy]
R --> G{前提稳吗}
G -- 不稳 --> GR[do-it-grill<br/>plan 前先核查]
G -- 稳 --> T{tier}
GR --> T
T -- Light --> L[直接执行]
T -- Standard --> S[inline 修改地图 -> 执行<br/>有风险才 review]
T -- Heavy --> H[plan -> slicing -> drills -><br/>子 agent 编排 -> review-loop -> fix-loop]
L --> PG{Edit / Write?}
S --> PG
H --> PG
PG -- Heavy 或显式 --> PGY[PreToolUse: 计划闸]
PG -- 否则 --> V[Stop]
PGY --> V
V --> VG[verification-gate:<br/>必须有新鲜证据]
VG --> D[完成]
借鉴了superpowers的思路,我觉得可以通过skills去做出一个工作流分流器出来,这个分流器对于进行编排的主智能体和子智能体是通用的。只是遵循不同的逻辑。
我着重加强的其实是一开始对任务的判断和整体任务的流程。为了更高效的利用token,又加快开发进度。我很喜欢让codex开出很多不同的子智能体去工作。但是codex有一个特点就是,极其的急不可耐,它会主动关闭还在干活的子智能体,以及子智能体,经常会干超出范围。所以我的思路其实是通过锁定交流的契约,加强review的流程。去解决这个问题(不是很完全,但是很有效的大大改善了)
另一个是,关于任务到底怎么才算干完了。在实际工作的时候,模型经常(点名批判claude)自以为搞完了,加上我是主智能体编排子智能体的流程,后面review的时候,又出一堆问题。所以我觉得完成必须得是一个需要证据支持才能说明的事情。
所以实际上,这个包是一个懒人,自己偷偷开发,符合我自己使用习惯的一个包。现在用下来我目前还算满意。我未来想加入的功能是,我想设计一个单独的流程,启动后,晚上可以自己一直运行,去对架构,代码库等等进行小的优化,或者是升级什么的。
剧透欢迎各位佬友们提出意见,也希望我的这个工作流真的能帮助到大家更好的开发项目。 ![]()
GitHub - tdwhere123/do-it: Installable AI coding workflow for risk-based...
Installable AI coding workflow for risk-based routing, scoped sub-agents, and evidence-backed completion.
1 个帖子 - 1 位参与者