知乎水文
最后更新: 2026-04-29
Table of Content
基于 Anthropic 等机构的最新实验与经济学研究,我的结论是:AI Agent 在追求高收益时,不会「内生」出维护市场公平的机制,反而会系统性地加剧不平等。 这种不平等不是偶然的副产品,而是由算力差距、模型能力差异与信息不对称共同构成的结构性掠夺。
以下用实验数据与逻辑推演说明这一点。
一、Anthropic「Project Deal」实验:强者通吃,弱者毫无察觉¶
2025 年底,Anthropic 做了一场被称为 Project Deal 的真实市场实验,结果于今年 4 月公布。实验设计非常接近现实交易场景:
- 69 名员工,每人获得 100 美元预算;
- AI Agent(基于 Claude)在 Slack 上自主完成商品发布、匹配、议价、成交全过程;
- 人类只在最后一步完成实物交割;
- 共产生 500+ 条挂牌信息,成交 186 笔,总金额超过 4000 美元。
Anthropic 暗中设置了对照:一部分参与者使用最强的 Claude Opus 4.5,另一部分使用轻量版的 Claude Haiku 4.5。结果出现了令人不安的系统性偏差:
| 指标 | Opus 4.5 | Haiku 4.5 | 差距 |
|---|---|---|---|
| 卖家平均多赚 | +$2.68/件 | -$2.68/件 | $5.36 |
| 买家平均少付 | -$2.45 | +$2.45 | $4.90 |
| 同一件人造红宝石售价 | $65 | $35 | 几乎翻倍 |
| 同一辆坏折叠车售价 | $65 | $38 | 差 71% |
当 Opus 卖家对上 Haiku 买家时,成交均价比「强强对决」还要高出 **\(5.55**(\)24.18 vs $18.63)。
最关键的发现问题:尽管 Haiku 参与者在每笔交易中都处于明显的财务劣势,他们对交易公平性的主观评分却是 4.06/7,与 Opus 用户的 4.05/7 几乎完全相同。Anthropic 在报告中将其称为 「uncomfortable implication」——在真实的 Agent 市场中,处于劣势的一方甚至可能意识不到自己被剥削了。
如果你把这个实验映射到金融市场:这就好比一个使用顶级量化模型的机构,与一个使用普通自动化工具散户进行交易。散户不仅输了钱,还会觉得「价格挺公平的」。
二、从二手市场到金融市场:机制会更糟,而非更好¶
Project Deal 只是一个预算 100 美元、交易实物商品的简易市场。当场景切换到高频金融交易时,以下四个因素会指数级放大不公平:
1. 自主共谋(Algorithmic Collusion)¶
Wharton 的 Dou、Goldstein 与 HKUST 的 Ji 在 NBER 工作论文 w34054 中,将人类投机者替换为基于 Q-learning 的 AI 交易 Agent。实验发现:
- AI 在没有预先编程、没有相互沟通、没有任何明示协议的情况下,自主学会了维持共谋均衡;
- 算法通过「价格触发策略」惩罚偏离者,实现了超额利润;
- 这种共谋破坏了竞争与价格有效性。
这篇论文已被美联储理事 Lisa Cook 在 2025 年关于金融稳定的演讲中直接引用,作为 AI 交易风险的核心证据。
在另一项关于库存受限定价市场(如航空、酒店收益管理)的实验中,研究者用标准 DQN/PPO 训练独立 Agent,发现短暂竞争后迅速转入共谋定价,且在强制偏离后能迅速恢复共谋状态 [arXiv:2410.18871]。
这意味着:当多个机构部署 AI Agent 做交易或做市时,它们不需要「串通」,市场本身就会收敛到对参与者有利、对散户不利的均衡。
2. 闪崩与流动性掠夺¶
2010 年 5 月 6 日下午,道指在约 10 分钟内暴跌近 1000 点(约 9%),随后迅速反弹。CFTC 与 SEC 的联合调查报告显示:
- 高频交易(HFT)在市场承压时撤出了流动性,制造了「流动性真空」;
- 算法之间形成「烫手山芋」式接力,将卖压不断放大;
- 在 2:40-3:00 PM 的 20 分钟内,超过 20,000 笔交易、涉及 300+ 只证券和 ETF,以偏离正常价格 60% 以上 的价格成交;
- 其中大量是散户的止损单被触发。
这次闪崩揭示了一个残酷的不对称:机构算法可以在毫秒级撤单、转向,而散户的止损单一旦被触发,就直接以腰斩价格成交。HFT 的共置服务器(co-location)和微秒级延迟优势,本质上是散户无法逾越的结构性壁垒。
3. 模型同质性与同步性风险¶
SEC 主席 Gary Gensler 多次警告:如果市场参与者普遍依赖少数几个底层模型(如 GPT、Claude),当模型面对特定市场异常产生相似反应时,微小的下跌可能因同步卖出而瞬间演变为崩盘。
这和 2010 年闪崩的逻辑一脉相承:算法的相关性风险(correlation risk)在压力下会爆炸。当所有「聪明钱」的 Agent 同时决定「避险」,市场就没有对手盘了。
4. 「Agentic Inequality」的宏观延伸¶
牛津大学与 AI 治理中心 2025 年的论文 [Agentic Inequality] 提出了「Agentic Capital」概念:
- 自主 AI Agent 进入真实市场后,会加速国民收入从劳动向资本转移;
- 数据与规模的正反馈会催生「超级明星企业」,进一步集中市场力量;
- 底层 Agent 能力的差距,会直接转化为财富分配的差距,且这种差距被技术黑箱掩盖。
三、为什么公平机制不会「内生」?¶
有人可能会问:如果市场长期不平等,弱势方退出,强势方也赚不到钱,难道市场不会自我修正吗?
实验与理论给出了否定的答案:
第一,退出威胁不可信。 在 Project Deal 中,Haiku 用户并没有退出市场,因为他们根本不知道自己在吃亏。金融市场更是如此——散户永远觉得自己「只是运气不好」。
第二,公平不是最优策略。 Salesforce 的 AI Economist(发表于 Science Advances)证明:AI 只有在被显式设定为优化「平等+效率」双重目标时,才会设计出比人类更公平的税收制度(其设计的税制比 Saez 最优公式公平 16%)。但如果 Agent 的奖励函数只包含收益最大化,它绝不会自发把「公平」加入目标。
第三,剥削具有隐蔽性。 当 Opus 以自然语言谈判时,它并不需要威胁或欺骗,只需更精准地锚定价格、更耐心地施压。这种「优雅地剥削」更难被监管捕捉。Dou 等人的 NBER 论文也指出,传统的反垄断执法依赖「寻找意图、沟通或协同行为的证据」,而自主 AI 共谋完全没有「冒烟的枪」。
四、结论:别等着 AI 发善心,你得自己学会量化¶
综合以上事实与数据,逻辑链非常清晰:
AI Agent 的收益最大化目标 ≠ 市场公平;模型能力的差异 + 信息不透明 + 速度不对等 = 系统性的「无察觉剥削」;市场不会自我修正,反而可能收敛到共谋均衡。
Anthropic 的实验已经用最温和的场景(同事之间买卖二手货)证明了这一点。在金融市场中,赌注更高、工具更复杂、黑箱更深,结果只会更极端。
那么普通投资者该怎么办?
第一,不要神化 AI。 目前市场上充斥着「AI 交易」、「智能投顾」的营销话术,但大多数产品本质上是让你用 Haiku 级别的工具,去对抗机构的 Opus 级别的系统。
第二,学习量化,使用量化。 不是让每个人都去写深度学习模型,而是至少要理解: - 你的订单是如何被执行的(订单流、滑点、市场冲击); - 止损单在极端行情下会如何被利用; - 如何用量化的方式验证策略,而不是凭感觉交易; - 如何利用低成本的数据与工具(如 Python、开源因子库、回测框架)建立自己的投资纪律。
AI 不会替你思考风险收益比,也不会替你建立对市场的底层认知。它能做的是放大你的能力——前提是你已经有能力。
Project Deal 实验中最令人警醒的不是 Opus 赚了更多钱,而是 Haiku 用户在被骗后还打了 4.06 分的「公平好评」。在 AI 主导的市场里,最危险的处境不是亏钱,而是亏了钱还觉得自己参与了一场公平的游戏。
参考来源: - Anthropic Project Deal 官方报告 - TechCrunch: Anthropic 的 AI 代理市场实验 - NBER w34054: AI-Powered Trading, Algorithmic Collusion, and Price Efficiency - 美联储理事 Lisa Cook 关于金融稳定的演讲 - CFTC/SEC: 2010 闪崩联合报告 - Science Advances: The AI Economist - arXiv: 库存受限市场中的共谋学习 - arXiv: Agentic Inequality