Anthropic 在 3 月 24 日发布了第五期经济指数报告《Learning Curves》,基于 2026 年 2 月的 Claude 使用数据。这份报告最有价值的地方不是告诉我们 AI 能做什么,而是揭示了谁在有效使用 AI,以及为什么。
核心发现很简单,但影响深远:使用 Claude 超过 6 个月的用户,成功率比新手高 10%。而且这个差异在控制了任务类型、国家、语言等变量后依然存在。
这不是"熟能生巧"那么简单。这是系统性能力差异。
一、数据说了什么
1. 学习曲线:10% 的成功率差异
报告用回归分析控制了任务类型、请求集群、国家、语言、使用场景等变量,发现高使用时长用户(使用 6 个月以上)的对话成功率仍然比新手高 3-5 个百分点。
更重要的是,这些高使用时长用户的使用模式也不同:
- 更高的教育水平需求:他们处理的任务平均需要多 1 年的教育背景
- 更少的个人用途:个人对话占比少 10%,工作相关对话多 7%
- 更多的协作模式:更倾向于迭代(iteration)而非指令式(directive)
- 更分散的任务类型:前 10 任务占比更低(20.7% vs 22.2%)
这些差异指向一个结论:他们不是在"用"AI,而是在"管理"AI。
2. 模型选择:管理思维的微观体现
报告发现用户会根据任务复杂度选择模型。对于付费 Claude.ai 用户:
- 编程任务:55% 使用 Opus(最强模型)
- 教育任务:45% 使用 Opus
- 每增加 $10 的任务时薪,Opus 使用率提升 1.5 个百分点
API 用户的模型选择更激进——斜率是网页用户的 2 倍(2.8 vs 1.5 个百分点)。
这个差异很有意思。API 用户在构建系统,他们必须考虑成本和效率的权衡。网页用户在完成任务,他们更可能"用最好的工具做所有事"。
前者是管理者思维,后者是工具使用者思维。
3. 增强 vs 自动化:协作在增加
报告将交互模式分为两大类:
- 增强(Augmentation):人机协作,包括反馈循环、任务迭代、验证、学习
- 自动化(Automation):AI 独立完成,主要是指令式模式
数据显示:
- Claude.ai 的增强模式在增加
- API 的自动化模式在增加(尤其是客服、销售自动化)
- 高使用时长用户更倾向于迭代
这个趋势反直觉。你可能以为,用户越熟练,越会让 AI 自动化完成任务。但数据显示相反:高手更多选择协作模式。
为什么?因为他们知道 AI 的价值不在于替代人类判断,而在于放大人类判断。
4. 全球不平等在加剧
报告最令人担忧的发现:
- 美国内部的使用不平等在收敛(基尼系数下降,前 5 州占比从 30% 降到 24%)
- 全球的使用不平等在加剧(基尼系数上升,前 20 国家占比从 45% 升到 48%)
结合学习曲线的发现,这意味着:早期采用者(高技能任务 + 高成功率)正在拉开与后来者的差距。
报告明确提到了技能偏向型技术变革(skill-biased technological change)的风险:AI 可能会提高高技能工作者的工资,同时压低低技能工作者的工资。
二、看不见的护城河
Anthropic 的数据揭示了一个现象,但没有解释机制。那 10% 的成功率差异从哪来?
我的推测:那些高使用时长用户很可能建立了某种形式的上下文基础设施(context infrastructure)。
什么是上下文基础设施?就是那些 Anthropic 看不到的东西:
- 项目文档:架构设计、技术决策、已知陷阱
- 偏好记录:代码风格、设计原则、审美标准
- 方法论沉淀:调试流程、验收标准、最佳实践
- 反馈循环:测试、日志、可视化、验证机制
这些东西不在 Claude 的对话里,它们在用户的本地文件系统、团队 wiki、或者脑子里。但它们决定了 AI 协作的质量。
类比一下:你看不到一个程序员的配置文件(dotfiles),但它们决定了生产力。同样,你看不到一个 AI 用户的上下文基础设施,但它决定了 AI 的有效性。
这也解释了为什么切换到"更聪明"的新模型,实际价值可能反而更低。如果你失去了 6 个月积累的默契——对模型能力边界的理解、有效的协作模式、沉淀的方法论——那么即使新模型在基准测试上更强,它在你的实际工作中可能表现更差。
竞争优势来自累积的上下文,而非模型的原始智能。
三、重新理解 AI 不平等
报告里全球不平等加剧的数据,通常会被解读为"访问权限问题"——发展中国家的人用不上 AI。
但结合学习曲线的发现,我认为问题的根源不在这里。
即使给所有人同样的 Claude 访问权限,那些缺少以下能力的用户,成功率仍然会低 10%:
- 快速反馈循环的能力:知道如何设置测试、日志、验证机制,让 AI 能看到自己的输出质量
- 对 AI 能力边界的理解:知道什么任务适合什么模型,什么时候需要人类介入
- 管理 AI 的思维模式:把 AI 当团队成员而非工具,通过赋能而非直接操控来获得杠杆
- 积累默契的时间和方法:建立文档、记录偏好、沉淀方法论
这些能力不是天生的,也不是"多用就会"的。它们需要学习、实践、反思。
美国内部的收敛(基尼系数下降)可能反映了一个事实:美国用户有更多的学习资源——教程、社区、案例、讨论。而全球的分化(基尼系数上升)可能反映了这些资源的不平等分布。
AI 不平等的本质是使用能力的不平等,而非访问权限的不平等。
这个洞察很重要,因为它改变了解决方案。如果问题是访问权限,那么答案是降低价格、提供免费额度。但如果问题是使用能力,那么答案是教育、文档、社区、最佳实践的传播。
四、对个人和组织的启示
从这份报告,我看到三个清晰的信号:
1. 投资于你的上下文基础设施
不要只是"用"AI。建立你的使用系统:
- 为常见任务写文档(背景、方法论、验收标准)
- 记录你的偏好和纠正(代码风格、设计原则)
- 沉淀可复用的方法论(调试流程、验证机制)
- 建立反馈循环(测试、日志、可视化)
这些投入在短期看起来是"浪费时间",但它们会以复利的方式回报你。6 个月后,你就是那个成功率高 10% 的用户。
2. 学会管理 AI,而非使用 AI
报告里 API 用户的模型选择更成熟,不是因为他们更聪明,而是因为他们在构建系统。系统思维强制你考虑:
- 什么任务适合什么模型?
- 如何验证输出质量?
- 如何处理失败情况?
- 如何优化成本和效率?
这些问题会让你从"工具使用者"升级为"AI 管理者"。而管理者思维带来的是杠杆效应——不是你做得更快,而是你能让 AI 做得更好。
3. 协作模式比自动化模式更有价值
高使用时长用户更多选择迭代而非指令式,这不是因为他们不会用自动化,而是因为他们理解了 AI 的真正价值。
AI 不是用来替代你的判断的,而是用来放大你的判断的。那些需要人类判断的 20-30%——品味、优先级、风险评估——往往是最有价值的部分。
不要追求"让 AI 完全自动化"。追求"建立紧密的人机协作循环"。
Anthropic 的这份报告用数据证实了一个反直觉的事实:在 AI 时代,使用 AI 的能力比 AI 本身更重要。
模型会越来越强,价格会越来越低,访问会越来越容易。但那 10% 的成功率差异——来自上下文基础设施、管理思维、协作模式——不会自动消失。
这是新的护城河。也是新的不平等来源。
问题是:你在哪一边?