跳转至


课程  因子投资  机器学习  Python  Poetry  ppw  tools  programming  Numpy  Pandas  pandas  算法  hdbscan  聚类  选股  Algo  minimum  numpy  回测  数据标准化  algo  FFT  模式识别  配对交易  GBDT  LightGBM  XGBoost  statistics  CDF  KS-Test  monte-carlo  VaR  过拟合  algorithms  machine learning  strategy  python  sklearn  pdf  概率  数学  面试题  量化交易  策略分类  风险管理  Info  interview  career  强化学习  监督学习  AI量化  复权  数据  tushare  akshare  xgboost  PCA  wavelet  时序事件归因  SHAP  深度学习  归一化  BN  LN  WN  machine-learning  quant-trading  dropout  kaggle  boosting  决策树  泰勒展开  quant  deep-learning  tcn  time-series  causal-convolution  交易实战  避坑指南  Figures  Behavioral Economics  graduate  arma  garch  人物  职场  Quantopian  figure  Banz  金融行业  买方  卖方  story  量化传奇  rsi  zigzag  穹顶压力  因子  ESG  因子策略  投资  策略  pe  ORB  Xgboost  Alligator  Indicator  factor  alpha101  alpha  技术指标  wave  algorithm  pearson  spearman  套利  LOF  白银  因子分析  Alphalens  涨停板  herd-behaviour  momentum  因子评估  review  SMC  聪明钱  trade  history  indicators  zscore  波动率  lightgbm  顶背离  另类数据  freshman  resources  others  AI  DeepSeek  network  量子计算  金融交易  IBM  weekly  进化论  logic-factor  Agent Skills  Skills Marketplace  VS Code  Tushare  XtQuant  BaoStock  A股  量化  neutralization  basics  LLT  backtest  backtrader  研报  papers  UBL  金融阅读  免费资源  华尔街日报  WSJ  量化学习  quantlib  jupyter-notebook  scikit-learn  pypinyin  qmt  xtquant  blog  static-site  duckdb  工具  colors  free resources  barra  world quant  Alpha  openbb  risk-management  llm  prompt  CANSLIM  Augment  arsenal  copilot  vscode  code  量化数据存储  hdf5  h5py  cursor  augment  trae  Jupyter  jupysql  pyarrow  parquet  数据源  quantstats  几何收益  实盘  clickhouse  polars  滑动窗口  notebook  sqlite  sqlite-utils  fastlite  大数据  PyArrow  UV  Pydantic  Engineering  redis  remote-agent  AI-tools  Moonshot  回测,研报,tushare  dividend 

algo »

TCN 番外:回测高胜率与实盘失效,AI 模型在金融市场的客观困境


在学习了 TCN 的硬核原理并将其应用于历史数据回测后,许多研究者会得到非常漂亮的结果:验证集准确率高、模拟盘收益率曲线平滑。

然而,一旦将模型接入真实市场的实盘交易,这些在纸面上无懈可击的模型往往会迅速失效,甚至产生严重的连续回撤。

我自己第一次看到这种反差时,其实是有点发懵的。

因为你盯着回测曲线看久了,会很自然地以为问题只剩下仓位大小和交易成本,结果一上真实环境,模型像突然换了个脑子。

这是由于模型本身的缺陷,还是代码实现存在问题?

通常都不是。

Tip

回测表现好,不代表实盘一定有效。很多时候,问题不在模型写错了,而在于市场环境本身一直在变。

核心原因在于,金融时间序列与计算机视觉(CV)、自然语言处理(NLP)中的数据有着本质的区别。

用处理静态数据的思维去应对高度动态的金融市场,必然会遭遇水土不服。

我后来才慢慢接受一件事:很多时候,不是你模型写错了,而是你把市场想得太像 Kaggle 了。

下面这些问题,我基本都踩过,或者至少在别人的回撤里看过。


困境一:金融数据的非平稳性与标签歧义:市场是有生命的

在计算机视觉中,给一张猫的照片打上“猫”的标签,不管过去一百年还是一万年,不管这张照片被多少人看过,它永远都是猫。

这叫数据的确定性。这个标签是永恒不变的。这种数据具有极高的确定性

但金融市场的规则是动态演变的。

假设模型在历史数据中学习到了一个胜率极高的“看涨形态”(如特定的量价配合)。

在回测中,该形态出现 100 次,上涨 80 次,模型因此将其标记为“看涨(1)”。

但在真实的明天,同样的形态出现时,如果遭遇突发的宏观政策变动(如央行加息),市场可能会直接暴跌。

对于完全相同的 K 线输入特征,历史的正确标签是“涨”,而今天的正确标签却变成了“跌”。

这就是金融里最麻烦的地方:同样的输入,放在不同时间段里,背后的分布可能已经变了:

\[ P_t(X, Y) \neq P_{t+\Delta}(X, Y) \]

也就是说,你拿来训练模型的那套联合分布,到了下一阶段,很可能就已经不是同一回事了。

这种标签歧义,会导致高度依赖历史标签的监督学习模型(如 TCN)在训练时陷入严重的拟合困难,模型无法理解为什么相同的特征会对应截然相反的结果。

此外,市场还存在索罗斯提出的“反身性”。

当一个预测模型高度准确时,必然会吸引更多资金使用相同的策略。

当大量资金在同一时刻发出相同的交易信号时,原本的市场微观结构就会被破坏。

预期的利润空间会被瞬间透支,导致策略本身走向失效。模型的有效性会随着资金规模和使用人数的增加而边际递减。

Tip

同一种形态,在不同时间段里未必还是同一种含义。市场一旦换了环境,历史经验就可能立刻失灵。


困境二:模型时间窗口与自然日历的错位:TCN 读不懂人类的“日历”

在 TCN 的架构中,膨胀卷积(Dilated Convolution)很精妙,能指数级扩大视野,再来捕捉长程依赖。

但这种严密的数学设计,在金融实战中显得过于死板、机械。

人类的经济活动和交易习惯是按照自然日历进行的(如月度宏观数据发布、季度财报披露、周度资金结算)。

但 TCN 的膨胀因子是按 2的指数次幂 递增的(2、4、8、16、32、64...)。

这意味着模型只能凑出 32 天或 64 天的观察窗口,它无法精准对齐现实世界中 1月1日 到 1月31日 这样的自然月周期。

这件事在纸面上看起来不严重,真做交易时就会别扭。

比如春节前最后一个交易日和春节后第一个交易日,在人脑里根本不是两根普通 K 线,中间隔着的是一整段消息面、情绪面和资金预期的重新定价。

但在模型眼里,如果你不额外处理,它看到的仍然只是“时间轴上相邻的两个点”。

更重要的问题在于对“非交易日”的处理。

A 股每周有 5 个交易日,中间穿插周末,还可能遇到长达一周的春节休市。

传统的人类交易员在分析“周线”时,会自动过滤掉非交易日的断层。

但 TCN 只是机械地向历史追溯固定数量的数据点,它往往会将节前的情绪与节后由于消息面累积引发的跳空强行缝合在一起,破坏了时间序列的真实逻辑结构。

同时,由于 TCN 会吸收窗口内的所有数据点,这导致它将日内的大量随机波动(散户情绪、资金博弈的噪音)全部纳入计算。

在信噪比极低的金融市场中,有价值的趋势信号往往会被这些海量噪音所淹没。

Tip

金融数据不是越多越好。窗口里混进太多噪音时,模型反而更容易学偏。


困境三:树模型(XGBoost)的“捷径”与特征依赖

由于深度学习对数据信噪比的要求极高,许多量化研究员会转向在传统表格数据中表现优异的树模型(如 XGBoost 或 LightGBM)。

如果你偷懒,直接把过去 10 天的收盘价扔给 XGBoost,让它预测第 11 天的价格。你会发现模型的 Loss(误差)降得特别低,预测曲线和真实曲线几乎完美重合!

你放大仔细看就会发现,模型耍了个极其鸡贼的小聪明:它只是把昨天的收盘价,直接当成了今天的预测值。

很多时候,它学到的其实只是:

\[ \hat y_t \approx y_{t-1} \]

这种感觉其实挺像学生考试抄到了标准答案的前一行。分数看起来很好,脑子里什么都没学到。

很多回测里那种“稳定得可疑”的好结果,本质上都是这种味道。

因为大部分股票单日波动不到 1%,预测“今天等于昨天”在数学上是误差最小的解法。但这对于你想赚钱的交易来说,毫无用处。

Tip

预测误差低,不等于策略能赚钱。很多“漂亮结果”只是模型学会了偷懒,而不是学会了交易。

所以,用树模型你必须依赖强特征工程

你需要人工去挖因子:动量因子(过去20天涨幅)、估值因子(PE低于10)、技术因子(MACD金叉)…… XGBoost 的强项在于,它能帮你找出这些因子的非线性组合(比如:只有当低估值+高动量同时出现时,胜率才高)。

但这依然没有跳出“监督学习”的框架。

它还是怕噪音,还是怕美联储突然讲话。

最关键的是,如果你的特征挖错了(比如不小心混入了未来函数),树模型再强也是白搭。


演进方向:强化学习(RL)的探索

面对满是噪音和欺骗的市场,现在学术界和前沿机构把目光投向了强化学习(Reinforcement Learning)

为什么是强化学习?因为它的逻辑和真实的交易员最像。

监督学习(TCN / XGBoost)是个书呆子,它天天纠结:“明天到底涨不涨?给我个确定的标签!”

但强化学习是个老油条,它的目标不是猜对明天的涨跌,而是:“我买入并持有 30 天,最后账户里的钱变多了没有?”

它不需要你告诉它每一天的操作是对是错,它只看最终的长期回报(Reward)

哪怕中间某几天股票暴跌,只要 30 天后总收益是正的,模型就会记住“当时的持仓策略是对的”。

这种特性,让强化学习对金融市场的短期噪音有了极强的免疫力。它不钻牛角尖,只为最终的盈亏负责。

这种容错机制使得强化学习对短期的市场噪音和随机波动具有更强的免疫力。它不再纠结于局部的预测准确率,而是为全局的资金曲线负责。


现实壁垒:资金、算力与市场规则

即使研究出了优秀的预测模型,真正把它变成收益时,拦在前面的也远不止“预测准不准”这一件事。

资金规模的魔咒

在回测里,你假设你的买入不会影响股价。但如果你手握 10 亿资金,哪怕你只是想建个底仓,你的买单也会瞬间把这只股票拉涨停。

你的模型发出了买入信号,但你的资金体量亲手消灭了这个信号的利润空间。这就是为什么很多高频策略容量极小,几百万玩得转,上千万就得亏。

你拼得过顶尖机构的算力和人才吗?

OpenAI 核心研究员的年薪是大几千万美金外加股份。

顶尖的量化对冲基金(比如文艺复兴、Two Sigma)网罗了全美最好的数学家和物理学家。

作为个人开发者,你用的显卡、跑的开源模型,在他们面前可能就像小米加步枪面对降维打击。

赚钱的尽头,往往是“规则套利”

很多时候,大机构赚的并不是模型更聪明的钱,而是制度漏洞的钱。

比如早年的融券规则:机构能融到优质券源,在拉高股价的当天直接融券卖出,实现无风险的 T+0 套利;而散户连券都借不到。

后来监管打补丁堵住了这个漏洞,这类策略瞬间暴毙。

在这个市场里,能长期稳定赚钱的,往往是对规则理解最深的人,而不是代码写得最好的人。


总结

这篇番外不是为了给你泼冷水,而是为了帮你少走一点那种“明明曲线很好看,为什么一上真实环境就变脸”的弯路。

并不是为了否定 AI 在量化里的价值,而是想把预期拉回到更诚实的位置。

无论是 TCN、XGBoost 还是强化学习,它们都是处理复杂数据的极佳工具,但绝非金融市场中一劳永逸的“万能钥匙”。

Tip

真正决定策略能不能活下来的,往往不是模型名字有多新,而是你对噪音、规则和风险控制理解得有多深。

掌握深度学习的算法原理,能让你有资格坐上量化的牌桌;

但决定一个策略能否在真实市场中存活、能让你在牌桌上持续赢钱的,往往是对数据信噪比的处理、对市场微观结构与交易规则的认知,以及对风险和资金管理的严格把控。

先从小资金跑起吧,别急着加杠杆。模型这东西,回测里看上去都很聪明,真正让人长记性的,往往还是实盘里那几次毫不讲道理的回撤。