跳转至


课程  因子投资  机器学习  Python  Poetry  ppw  tools  programming  Numpy  Pandas  pandas  算法  hdbscan  聚类  选股  Algo  minimum  numpy  回测  数据标准化  algo  FFT  模式识别  配对交易  GBDT  LightGBM  XGBoost  statistics  CDF  KS-Test  monte-carlo  VaR  过拟合  algorithms  machine learning  strategy  python  sklearn  pdf  概率  数学  面试题  量化交易  策略分类  风险管理  Info  interview  career  quant  self-learning  probability  portfolio  risk-management  强化学习  监督学习  AI量化  复权  数据  tushare  akshare  xgboost  PCA  wavelet  时序事件归因  SHAP  alog  paper  multimodal  speech  volatility  深度学习  归一化  BN  LN  WN  machine-learning  quant-trading  dropout  kaggle  boosting  决策树  泰勒展开  finance  model  github  analysis  deep-learning  tcn  time-series  causal-convolution  交易实战  避坑指南  Figures  Behavioral Economics  graduate  arma  garch  人物  职场  Quantopian  figure  Banz  金融行业  买方  卖方  story  量化传奇  rsi  zigzag  穹顶压力  因子  ESG  因子策略  投资  策略  pe  ORB  Xgboost  Alligator  Indicator  factor  alpha101  alpha  技术指标  wave  algorithm  pearson  spearman  套利  LOF  白银  因子分析  Alphalens  涨停板  herd-behaviour  momentum  因子评估  review  SMC  聪明钱  trade  history  indicators  zscore  波动率  lightgbm  顶背离  另类数据  freshman  resources  others  AI  DeepSeek  network  量子计算  金融交易  IBM  weekly  进化论  logic-factor  Agent Skills  Skills Marketplace  VS Code  Tushare  XtQuant  BaoStock  A股  量化  neutralization  basics  LLT  backtest  backtrader  研报  papers  UBL  金融阅读  免费资源  华尔街日报  WSJ  量化学习  quantlib  jupyter-notebook  scikit-learn  pypinyin  qmt  xtquant  blog  static-site  duckdb  工具  colors  free resources  barra  world quant  Alpha  openbb  llm  prompt  CANSLIM  Augment  arsenal  copilot  vscode  code  量化数据存储  hdf5  h5py  OpenClaw  Hermes Agent  Agent  cursor  augment  trae  Jupyter  jupysql  pyarrow  parquet  数据源  quantstats  几何收益  RDAgent  qlib  agent  实盘  clickhouse  polars  滑动窗口  openclaw  notebook  sqlite  sqlite-utils  fastlite  大数据  PyArrow  UV  Pydantic  Engineering  redis  remote-agent  AI-tools  Moonshot  回测,研报,tushare  dividend 

tools »

微软 RD-Agent:量化人的 AI 研发搭档


一、量化投研的困境

做过量化的人都知道,因子挖掘和策略研发是一条漫长而孤独的路。每天面对海量数据,反复跑回测、调参数、写代码,一个"好"因子的诞生往往需要数周甚至数月的试错。更痛苦的是,当市场风格切换时,辛苦打磨的策略可能一夜之间失效,一切又得重新开始。

与此同时,大语言模型(LLM)的能力在过去两年突飞猛进,但直接把 ChatGPT 当成"量化分析师"来用并不现实——让它写交易信号?它可能会"一本正经地胡说八道";让它读研报?它给出的因子往往缺乏回测验证。LLM 的"幻觉"问题在真金白银的市场面前是致命的。

有没有一种方式,既能发挥 LLM 的创造力,又能用严格的回测和代码执行来约束它?

微软亚洲研究院给出的答案是 RD-Agent(Research & Development Agent),一个专门面向工业级 R&D 流程的自动化多智能体框架。其在量化金融领域的专项版本 RD-Agent(Q)(即 R&D-Agent-Quant),已于 2025 年被 NeurIPS 接收,也是目前 GitHub 上最受关注的量化 AI Agent 项目之一(12,000+ Stars)。

二、RD-Agent 是什么

从本质上讲,RD-Agent 是一个"用 AI 驱动数据驱动型 AI"的自动化研发框架。它不做"端到端黑盒交易",而是聚焦于量化投研中最耗人力的环节——因子挖掘、模型优化、代码实现——并通过多智能体协作将这些环节自动化。

项目完全开源(MIT 协议),基于 Python 开发,深度集成了微软自家的 AI 量化平台 QLib。你可以在 GitHub(microsoft/RD-Agent)上找到完整代码,也可以通过 PyPI 一键安装:

1
pip install rdagent

三、四大智能体协同工作

RD-Agent(Q) 的核心是一支由四个 LLM 智能体组成的"虚拟投研团队",每个 Agent 各司其职,又通过闭环反馈持续迭代:

智能体 角色定位 核心职责
研究 Agent "首席分析师" 自动阅读研报、财报和学术论文,提取投资假设,提出新因子或模型优化思路
开发 Agent "量化工程师" 将研究假设转化为可执行的 Python 代码,完成因子构建或模型搭建
调度 Agent "投资总监" 基于多臂老虎机(Multi-Armed Bandit)算法,动态决策当前应优先优化因子还是模型
实现 Agent "运维工程师" 处理代码层面的工程细节,如修 Bug、时间序列对齐、数据清洗等

这种分工设计非常贴近真实投研团队的运作方式。研究 Agent 负责"想",开发 Agent 负责"做",调度 Agent 负责"排优先级",实现 Agent 负责"兜底"。更重要的是,它们不是一次性协作,而是在一个持续运行的闭环中不断迭代优化。

四、五步自动化研发闭环

RD-Agent(Q) 的运行遵循一个严格的五步循环:

1. Specification(需求定义) 明确研究目标,形成可验证的假设。例如"基于财报中管理层讨论章节提取情绪因子"或"优化现有 Alpha360 因子集的预测能力"。

2. Synthesis(方案设计) 基于领域先验知识和数据分析,设计具体的因子计算公式或模型结构。这一步利用了 LLM 强大的推理能力,但所有设计都锚定在可执行的代码框架内。

3. Implementation(代码实现) 通过代码生成智能体自动编写并执行代码。RD-Agent 内置了 Co-STEER(Co-evolutionary Self-referential Execution and Refinement)机制,确保生成的代码不仅在语法上正确,还能通过单元测试。

4. Validation(回测验证) 在真实市场数据上进行回测,验证策略有效性。这一步是整个系统的"防火墙"——无论 LLM 说得多么天花乱坠,最终都要用 IC 值、收益率、夏普比率等硬指标来检验。

5. Analysis(分析反馈) 全面评估实验结果,将反馈传入下一轮循环。系统会自主决定下一步的优化方向:是继续深挖当前因子族,还是切换去优化模型结构?是增加数据特征,还是调整参数空间?

这个闭环的最大价值在于:它用代码执行和回测结果约束了 LLM 的创造力,避免了"幻觉"问题。 换句话说,RD-Agent 不会直接给你交易信号,它会给你经过验证的、可解释的、可复现的因子和模型。

五、对量化人的独特价值

RD-Agent(Q) 对量化从业者来说,有以下几个层面的独特价值:

降本增效。根据论文实验数据,RD-Agent(Q) 在单次运行成本低于 10 美元的情况下,能够实现约 2 倍的年化收益率(ARR)提升,同时因子数量减少约 70%。这意味着你不仅能用更少的因子获得更好的效果,还能大幅降低数据处理和计算资源的消耗。

自动化繁琐工作。因子挖掘中的大量重复性劳动——读研报、写代码、跑回测、调参数——都可以交给 Agent 自动完成。量化研究员可以把更多时间花在策略逻辑设计、风险管理和实盘部署上。

避免"过拟合陷阱"。传统的自动化因子挖掘方法(如遗传算法)往往容易产生大量冗余因子,导致过拟合。RD-Agent(Q) 的"因子-模型联合优化"策略通过交替优化因子和模型,在预测精度和策略稳健性之间取得了更好的平衡。

可解释性与合规性。与端到端的深度学习黑盒模型不同,RD-Agent 生成的每一个因子都有明确的数学表达式和回测报告,这在风控审核和合规披露中至关重要。

六、三大应用场景

RD-Agent(Q) 目前主要支持以下三大量化投研场景:

场景一:因子自动挖掘与迭代

1
rdagent fin_factor

系统自动在历史数据上提出新因子假设,结合回测验证,通过强化学习筛选高收益因子,持续迭代优化。

场景二:从研报/财报中自动提取因子

1
rdagent fin_factor_report --report-folder=<你的财报目录>

自动解析非结构化文本(如金融研报、公司财报),提取关键信息并转化为可计算的结构化因子。这对于事件驱动型策略尤为有价值。

场景三:因子-模型联合进化

1
rdagent fin_quant

这是 RD-Agent(Q) 的王牌功能。系统通过调度 Agent 动态决策当前应优先优化因子还是模型,实现"因子-模型"的协同进化。实验表明,这种联合优化策略比单独优化因子或模型效果更好。

七、与 QLib 的深度协同

RD-Agent(Q) 并非从零开始构建所有基础设施,而是站在巨人的肩膀上——微软另一明星开源项目 QLib

QLib 提供了完整的量化投研基础设施:高性能数据存储(Parquet 分区 + 二进制缓存)、Alpha158/360 因子库、模型训练框架、策略回测引擎、组合优化模块等。其数据读取速度远超传统数据库方案,为 Agent 的快速迭代提供了性能保障。

RD-Agent 则扮演"自动化大脑"的角色,负责策略研发的上层智能化。两者结合,形成了一个从数据到策略的完整自动化流水线。

八、快速上手和帮你踩过的坑

官方目前仅支持 Linux。 这是 RD-Agent 在实际使用中最大的门槛。其核心原因在于量化回测环节深度依赖 Docker 容器执行(代码中硬编码了 unix://var/run/docker.sock 的 Docker API 调用),而 macOS 和 Windows 上的 Docker 路径映射、文件系统权限等机制与 Linux 存在差异,会导致运行时错误(Windows 上的问题见 issue #1064)。GitHub 上关于 macOS 支持的 issue 至今仍处于 open 状态(#1227)。

需要澄清的是:CUDA/GPU 不是必须的。 Dockerfile 虽然基于 PyTorch CUDA runtime 镜像,但代码内置了 GPU 自动检测和回退机制——如果容器内 nvidia-smi 检测失败或主机没有 GPU,会自动切换到 CPU 模式运行。社区反馈中已有用户确认在纯 CPU 环境下成功运行 fin_model 等场景(issue #445)。因此,阻碍在 macOS 上运行的不是 CUDA,而是 Docker 本身的跨平台兼容性问题。

如果你使用 Mac 或 Windows,目前可行的方案是:

  • macOS:安装 OrbStack(macOS 上较稳定的容器方案,无需 root),然后在其中运行。但 Docker 路径映射问题仍可能遇到,需要一定排错能力。
  • Windows:启用 WSL2,在 Linux 子系统中安装和运行 RD-Agent。这是目前最稳定的非 Linux 方案。
  • 云服务器:直接在 Linux 云主机(如阿里云、腾讯云)上部署,这是推荐做法。

首次运行会自动拉取并构建 QLib 的 Docker 镜像(基于 PyTorch CUDA runtime),在无镜像加速的环境下可能需要 10-20 分钟,请耐心等待。

安装步骤

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
# 1. 环境准备(Python 3.10 或 3.11)
conda create -n rdagent python=3.10
conda activate rdagent
pip install rdagent

# 2. 配置 LLM 后端
# RD-Agent 通过 LiteLLM 支持多种 LLM 提供商。以 OpenAI 为例:
cat << EOF > .env
CHAT_MODEL=gpt-4o
EMBEDDING_MODEL=text-embedding-3-small
OPENAI_API_KEY=<你的 API Key>
EOF

# 也支持 Azure OpenAI、DeepSeek、SiliconFlow 等多种后端。
# 注意:系统需要 ChatCompletion + json_mode + embedding query 三种能力同时可用。

# 3. 健康检查
rdagent health_check

关于 LiteLLM: RD-Agent 默认通过 LiteLLM 调用大模型,但 LiteLLM 已经作为依赖自动安装(pip install rdagent 时会一并安装),你不需要单独学习或配置 LiteLLM。LiteLLM 的作用是在内部帮你适配不同厂商的 API 格式,对外你只需要填写模型名和 API 密钥即可。

如果你有单一的 OpenAI 兼容 API,上面那段配置已经足够。如果聊天模型和嵌入模型使用不同的 API 端点,可以分开配置:

1
2
3
4
5
6
7
8
9
cat << EOF > .env
CHAT_MODEL=gpt-4o
CHAT_OPENAI_API_KEY=sk-xxx
CHAT_OPENAI_BASE_URL=https://chat-api.example.com/v1

EMBEDDING_MODEL=text-embedding-3-small
EMBEDDING_OPENAI_API_KEY=sk-yyy
EMBEDDING_OPENAI_BASE_URL=https://embedding-api.example.com/v1
EOF

如果你的模型包含思维链(如 DeepSeek-R1 的 <think> 标签),记得加上 REASONING_THINK_RM=True

数据来源永远是问题

这是最容易踩坑的地方。 RD-Agent 的量化回测建立在 QLib 数据之上,但 QLib 的官方数据集因数据安全政策已被临时禁用。项目文档对此的说明并不够显眼(社区 issue #1335 也反映了这个问题)。

目前需要使用社区维护的数据源

1
2
3
# 下载社区版 A 股日频数据(由 chenditc 维护)
wget https://github.com/chenditc/investment_data/releases/latest/download/qlib_bin.tar.gz
tar -xzf qlib_bin.tar.gz -C ~/.qlib/qlib_data/

原始数据来源于 Yahoo Finance,质量并不完美,仅供实验和研究使用。如果你有更高质量的数据源(如 Wind、聚宽、Tushare Pro),可以自行导入 QLib 的数据格式。对于机构用户来说,用自己内部的清洗数据替换默认数据源,是更合理的做法。

所以,如果,对于没有编程和量化基础的同学,这并不是一个无脑入的项目。

运行量化场景

数据就绪后,即可启动 Agent:

1
2
3
4
5
6
7
8
# 因子自动迭代
rdagent fin_factor

# 因子-模型联合进化
rdagent fin_quant

# 从研报提取因子
rdagent fin_factor_report --report-folder=./reports

运行过程中,系统会自动生成可视化报告,包括因子有效性热力图、回测收益曲线等,方便人工复核。此外,项目还提供了 Web UI(rdagent server_ui),可以实时查看 Agent 的运行状态和迭代轨迹。

其他重要注意事项

数据泄露与过拟合风险。 社区已有用户提出质疑(issue #1387):系统使用回测结果作为下一轮迭代的反馈依据,是否会导致对测试集的隐式过拟合?这是一个值得警惕的问题。建议将 RD-Agent 产出的因子先在样本外时段做独立验证,再纳入实盘考虑。

Docker 镜像构建耗时。 首次运行时会自动拉取并构建 QLib 的 Docker 镜像(基于 pytorch/pytorch:2.2.1-cuda12.1),这个过程取决于网络状况,可能会很长甚至不可行。请勿必事先设置镜像网站。

十、结语

对于量化人来说,RD-Agent 不是要取代你的角色,而是要成为你的"超级助手"。它处理繁琐、重复、机械性的工作。

RD-Agent 代表了一个明确的方向:不是让 AI 直接替你做交易决策,而是让 AI 加速你的研发迭代,让每一个量化研究员都能拥有属于自己的"自动化因子工厂"。而你将专注于真正需要人类智慧的部分——对市场的理解、对风险的判断、对策略的直觉。

但首先,你得理解什么是因子,是什么是量化交易,什么是机器学习

匡醍量化推出的《量化24课》和《因子分析与机器学习策略》,将带领你从入门到精通,帮助你建立完整的量化交易知识体系,培养你的品味和直觉。三年以来,我们不仅帮10余家私募培训了新员工,我们还看到一些新员工开始成为团队的承重墙,开始面试和带人了。

无论从哪个方面来说,我们的量化课程,都无疑是你进入量化领域的优速通。

如果你正在寻找一种方式来提升因子挖掘效率、降低策略研发成本,这个五一,RD-Agent 值得你来研究。配合这个假日,我们也推出了半年以来唯一的一次优惠,对新学员无条件9折优惠,仅限四天(5月4日止)!


参考链接: - GitHub: https://github.com/microsoft/RD-Agent - 论文: https://arxiv.org/abs/2505.15155 - 文档: https://rdagent.readthedocs.io/ - 技术报告: https://aka.ms/RD-Agent-Tech-Report - QLib: https://github.com/microsoft/qlib