我组了一个 7 人 AI 团队,全职替我炒股——而且我不用管它们

我组了一个 7 人 AI 团队,全职替我炒股——而且我不用管它们 缘起:从一个人写代码,到一群人替你干活 几个月前,我还是个普通的量化爱好者:一个人在 VS Code 里写策略、跑回测、手动下单、盯着 K 线发呆。最大的痛点不是策略好不好——而是 一个人干不了所有事 。 你需要有人盯盘、有人研究论文...
我组了一个 7 人 AI 团队,全职替我炒股——而且我不用管它们
我组了一个 7 人 AI 团队,全职替我炒股——而且我不用管它们

我组了一个 7 人 AI 团队,全职替我炒股——而且我不用管它们

缘起:从一个人写代码,到一群人替你干活

几个月前,我还是个普通的量化爱好者:一个人在 VS Code 里写策略、跑回测、手动下单、盯着 K 线发呆。最大的痛点不是策略好不好——而是 一个人干不了所有事

你需要有人盯盘、有人研究论文、有人跑回测、有人算风控、有人复盘。一个人切换角色,每次切换都有上下文切换成本,而且很容易累。

后来我想:为什么不让 AI 来干这些活?

不是让 AI 写代码——那是 Copilot 做的事。而是让 AI 扮演不同角色,组成一个自动化的交易团队,各自干各自的活,互相配合

架构:7 个角色 + 1 个策略官

我建了一个 7 人的量化交易团队,每个角色都是一个独立的 AI Agent,有清晰的分工:

角色 职责 工作时间 :brain: 研究官 扫描 arXiv、GitHub、机构研报,找可落地的 Alpha 每天清晨 :microscope: 回测官 验证研究官的想法,跑两轮牛熊回测 按需触发 :detective: 参谋官 跟踪市场动态,分析 BTC 多空比、资金费率 每天两次 :test_tube: 策略官 统筹整个 R&D 流水线,是团队大脑 每天下午 :shield: 风控官 6 条风控红线,守住风险底线 每天三次 :rocket: 实盘官 记录交易,生成日报 每天两次 :clipboard: 复盘官 汇总一周数据,生成周报 每周

关键设计:策略官是研发队长 ——研究官发现新 Alpha → 调度回测官验证 → 数据通过后推给风控官审核 → 实盘官灰度上线 → 复盘官反馈 → 循环迭代。

这不是一个单次执行的工作流,而是一个 每天自动运转的 R&D 流水线

核心原则:不问只做

团队最重要的原则就四个字:不问只做

每个角色遇到任何决策,先问自己一个问题:「这个决定能让持续盈利更近一步吗?」

如果是 → 直接执行,事后一句话报告。 如果不是 → 分析原因,毙掉。 如果不确定 → 做最小可行版本,数据会告诉你答案。

这个原则的效果是:团队永远不会停下来等我批准 。研究官发现新论文 → 直接写假设 → 推给回测官。回测官发现没回测引擎 → 直接写引擎 → 重新跑回测。风控官发现回撤超红线 → 直接退回。全程零人工干预。

工程实践:区分 AI 的活和脚本的活

这是整个系统最关键的认知:

不是所有任务都需要 AI 参与。纯工程任务应该由脚本做,AI 只做需要推理的事。

举个例子:每小时上报一次收益。我最初让 AI 每小时写一次报告——后来发现完全是在浪费 token。0 token 能解决的事,为什么要花 10000 token?

于是我们把任务分成两类:

类型 特征 方案 Token 消耗 确定性任务 固定格式、无推理 纯脚本(no_agent) 0 推理任务 需要判断、决策、创造 AI Agent 按需

数据采集、收益报告、风控状态检查 → 全部是纯脚本。研究、回测、策略评估、复盘分析 → 留给 AI。

这个区分让系统的运营成本几乎为零 ——每天几十个自动化任务,token 开销只来自真正需要推理的那几个。

技术实现:怎么做出来的

Agent 框架

基于通用 AI Agent 框架构建,每个角色是一份 Persona 文件 + 定时调度 。Persona 文件定义了角色的身份、行为准则、决策流程和 SOP。Agent 启动时加载 Persona,然后独立运行。

定时调度

使用 cron 管理所有 Agent 的运行时间。每个角色有固定的执行时段,确保团队节奏有序:清晨研究、中午回测、下午策略、傍晚风控、晚上复盘。

数据闭环

所有交易记录写入结构化日志(JSON Lines),每小时自动打包成共享上下文。下游角色(调优器、策略官、复盘官)读取同一份数据源,确保团队对当前的持仓、盈亏、信号效能有一致的理解

交易日志 → 自动打包 → 共享上下文 → 参数调优 → 策略覆盖 → 新交易
                                                          ↺
                                                       闭环反馈

模型分级

不同任务用不同模型——不是所有任务都需要最强的模型

  • 需要复杂推理的(策略评估、风控审核)→ 顶级模型

  • 执行型任务(研究扫描、回测运行)→ 快速模型

  • 纯确定性任务 → 0 token,脚本搞定

实战效果:回测引擎开发

举一个实际的例子——团队自主开发回测引擎

过程是这样的:

  1. 研究官 在 arXiv 上发现两篇论文(永续合约做市策略、基差交易动态抵押品控制),评估可执行性后写入 R&D 流水线

  2. 回测官 中午检查流水线,发现有新假设 → 尝试跑回测 → 发现没有对应的回测引擎

  3. 回测官 Phase 0 直接拒绝,原因是"基础设施缺失",并写清楚需要什么样的引擎

  4. 策略官 (研发队长)评估后,决定先写引擎再回测 。调度了两条工作流并行开发:

  • 一个写插针反转策略的回测引擎

  • 一个写资金费率基差策略的回测引擎

  1. 引擎建成后,回测官自动跑两轮牛熊回测

  2. 回测结果出来:插针策略平均亏损 0.49%,毙掉。基差策略 BTC 上 +48% 但回撤 26%,需要优化

  3. 策略官自动跑 27 组参数扫描 → 找到最优参数组合 → 回撤压到 14.34%

  4. 实盘包装器自动生成,集成到主循环

  5. 报告自动写入团队文档库

整个过程没有问过任何人一个问题 。从研究到部署,全自动。

遇到的坑

1. 手续费计算 bug 导致回测全错

最早的回测引擎有一个隐蔽的 bug:手续费按「总权益」收,而不是按「仓位价值」收。500 笔交易多扣 36%。这意味着所有回测结果都是错的

修复后,之前看着赚钱的策略变成了亏损。

教训 :回测引擎的每一行代码都需要审计。一个数学 bug 可以让整个团队做两周无用功。

2. 实盘退出路径从未真正触发

另一个更隐蔽的 bug:写了止损/止盈/追踪止的逻辑,但退出路径从未调用交易所的平仓 API——只更新了本地状态和日志。这意味着所有声称的平仓在交易所上从未执行

发现过程:检查交易日志 vs 实际持仓,发现不一致。

教训 :本地模拟和真实执行之间有一条鸿沟。每个关键的 side-effect 都要写 “actually calling API” 之类的确认日志。

3. Agent 之间需要「共享真相源」

早期每个 Agent 自己读交易所数据,导致同一时间点不同角色看到的持仓不一致——实盘官说亏 2%,风控官说亏 5%。原因只是 API 请求时间差了 3 秒。

修复 :每小时统一打包一次系统状态(持仓、余额、交易日志),所有角色读同一份文件。

给想尝试的人的建议

  1. 先有工程基础,再上 AI 。交易系统是工程问题,不解决数据采集、订单执行、风控基础设施,加再多 AI 也没用。

  2. Persona 文件决定一切 。团队好不好,核心看每个角色的定义够不够清晰——不是"帮我做研究",而是"每天 06:00 扫描这些源,输出这个格式,按这个决策框架判断"。

  3. 别高估 AI 的能力 。AI 擅长推理和决策,但完全不会执行交易(延迟问题)、不会算数(精度问题)、不会记账。让 AI 做它擅长的事,其他交给脚本。

  4. 从最简单的闭环开始 。不需要一开始就 7 人团队。先让一个研究 Agent 每天产出简报,然后把简报手动喂给回测脚本。等跑通了再加自动化。

  5. 日志就是一切 。没有结构化日志的系统是不可调试的。每笔交易、每个决策、每个错误都要记录。后续的分析、调优、归因全靠它。

最后

这个系统最让我惊讶的不是 AI 能写出不错的策略代码,而是 AI 能在完全没人指挥的情况下,自主发现基础设施缺陷并主动修复 ——研究官发现新思路 → 回测官发现缺引擎 → 策略官决定造引擎 → 所有角色自主完成。

团队不会因为我在睡觉就停滞不前。

当然,这套东西离"稳定盈利"还有很长距离——我们正在优化的那条策略年化只有 14%,离 50% 目标还很远。但方向对了:让 AI 做决策,让脚本做执行,让人做定义。

23 个帖子 - 19 位参与者

阅读完整话题

来源: LinuxDo 最新话题查看原文