Administrator
Published on 2026-04-04 / 4 Visits
0
0

"AI 原生组织:在企业被 AI 重构之前,先重构你的企业"

AI 原生组织:在企业被 AI 重构之前,先重构你的企业

80% 的企业对 AI 零感知,尽管个人效率提升了 40%。问题不在技术——在组织结构。一份分阶段的企业重构指南:按价值类型而非职位名称重新设计组织。


引言:一个让 CEO 夜不能寐的数字

麦肯锡的调研显示,AI 工具能让个人效率提升 30-40%。英伟达的工程师用 AI 代码助手每天多写 40% 的代码。Midjourney 一个人干了一个设计团队的活儿。一切看起来都很美好。

然后你去看企业层面的数据:80% 的企业对 AI 投资回报率为零。不是接近零——是统计学意义上的绝对零。

这个数字让无数 CEO 失眠。它意味着什么?意味着那 40% 的个人效率提升全部被组织的摩擦力吃掉了。

审批流程还在。部门墙还在。信息在中间层停滞。决策在_manager手里排队。团队用 AI 写代码的速度提升了 40%,但安全审查、产品评审、架构审批——这些都没变快。效率提升的部分,全部消失在组织黑洞里。

这不是技术问题。这是组织设计问题

而组织设计问题,只能用组织设计的手段解决。

本文是一份实战手册,献给那些不想坐等被 AI 重构的企业管理者。我会提供一个清晰的诊断框架——价值类型映射,以及一个分阶段的重构路线图——从审计到结构重组,再到文化重建。全文基于真实的生产数据,不是实验室假设。


第一章:价值类型诊断:别再按部门划分组织了

传统的组织诊断方式:CEO → 副总裁 → 总监 → 经理 → 员工。重组就是挪动组织架构图上的方块。

这个思维模型在 AI 时代已经彻底失效。它无法告诉你哪些角色会被 AI 替代,哪些会被增强,哪些反而变得更值钱。它把一个写代码的工程师和一个汇总报表的经理视为同类——但他们面对 AI 的处境完全相反。

AI 原生组织重构的第一步,是按价值类型而非职位名称来诊断你的组织。

五种价值类型

组织里的每一个角色,都在通过以下五种机制之一创造价值:

价值类型 定义 AI 影响 时间线
信息中转 传递信息、协调时间、减少摩擦 高度压缩——那些主要靠"转发"存在的岗位将被大幅削减 立即
标准化决策 将已知规则应用于可预测输入,产生一致输出 自动化——如果一个人靠 checklist 做决策,AI 完全可以接手 6 个月
协调管理 追踪进度、管理排程、跨团队沟通 消除——传统意义上的项目经理正在被结构性淘汰 1 年
专业判断 应用情境化专业知识、权衡竞争优先级、战略推理 增强——AI 处理数据综合,人类提供方向性判断 1-2 年
关系+责任 建立信任、承担责任、激励团队、危机处理 提升——人类 accountability 变得更值钱,而非减少 长期

核心洞察:AI 对每种价值类型的影响机制完全不同,时间线也完全不同。不能用同一套逻辑对待所有岗位。

为什么职位名称在说谎

"A 公司的高级经理"和"B 公司的高级经理",可能创造完全不同的价值类型。前者可能是一个信息中转角色——主要工作是批申请、排会议、整理周报。后者可能是专业判断角色——做战略人员决策、仲裁资源冲突。同一个头衔,两套截然不同的价值类型。AI 转型对这两个人的影响方式完全不同。

这就是为什么价值类型映射不能委托给 HR 用模板套用。它需要高管逐个角色过堂,问硬问题:这个岗位实际上在做什么?


第二章:五个诊断问题

对组织的每个角色,你需要回答五个诊断问题。这不是软性的文化评估——是决定这个角色在 18 个月内如何被 AI 改造的结构性诊断。

问题一:这个岗位是在靠效率还是靠意义赚钱?

有些岗位赚钱,是因为它们比其他替代方案做得更快或更便宜。另一些岗位赚钱,是因为它们创造了难以复制的东西——关系、创意判断、制度性知识、信任。

效率型岗位正面临直接压力。如果核心价值就是把 X 做得比人类更快,AI 会做得更快,这个岗位的经济逻辑就会崩塌。

意义型岗位不会免于冲击,但更有韧性。一个律师的价值不在于每小时多读几份合同——而在于提供风险建议,这些建议反映了对特定客户和情境多年判断的积累。这种判断被 AI 增强,而不是被替代。

自问:如果这个人把核心任务做得快 10 倍,他的价值会等比例增加、保持不变、还是减少?如果答案是"保持不变或减少",你面对的是一个意义型岗位。如果答案是"等比例增加",你面对的是一个面临直接压力的效率型岗位。

问题二:它的核心任务可以标准化吗?

这是预测自动化时间线的最关键问题。一个任务可以标准化,意思是它可以被简化为明确的规则、一致的输入和可复现的输出。合规检查、标准的审计流程、基础数据分析、发票处理。

标准化任务正在被自动化。不是理论上的——是生产环境中的现实。Klarna 将数千个这类流程迁移到了 AI。问题不是标准化是否可能——而是你是否做了让隐性流程显性化的工作。

自问:你能写出一个精确的、分步骤的操作规程,让一个称职的新人可以不用进一步判断就执行吗?如果能,它就是可标准化的。如果答案是"可以试试,但会变成 200 页的例外说明",你描述的是一个判断型岗位。

问题三:它的中层有不可替代的价值吗?

在大多数组织中,存在一个庞大的中间层——经理、项目经理、各类管理者——他们的主要职能不是核心产出,而是那些本来不会直接沟通的团队之间的连接。

这个层正在被重构。不是因为这些管理者懒惰或无能,而是因为 AI 驱动的协调工具让那些需要人类中间人来传递的信息流动变得更加透明和可自动化。

关键问题不是"这层是否创造了价值",而是"这层是否创造了不可替代的价值"。一个解决工程师之间技术分歧的技术主管,和一个主要工作是追踪哪些任务"完成了"并向上汇报进度的项目经理,创造的是完全不同的价值。

自问:如果你移除这个协调层,用共享的 AI 工作空间取代它(所有状态透明),什么会出问题,你能轻易修复吗?如果答案是"很多东西会出问题,但大多是沟通上的不便",这层很脆弱。如果答案是"需要人类即时判断的关键战略决策",这层有真正的价值。

问题四:它的最终交付必须是物理性的或面对面的吗?

AI 在数字任务上非常出色。物理任务仍然是短板。一份法律简报可以由 AI 起草。外科医生目前还无法被 AI 替代。一份财务分析可以自动化。面对面的客户关系仍然是人类的事。

这个问题之所以重要,是因为它决定了时间线压缩发生在哪里。物理性和面对面的岗位将看到 AI 对其进行增强(更好的诊断、更好的工具、更好的即时信息),但不会看到那种可在纯数字工作流程中实现的全面自动化。

自问:这个岗位的核心产出是否可以通过屏幕完全交付?如果可以,它在自动化管道里。如果答案涉及物理存在、专业设备或面对面建立关系,时间线更长,而且转型是增强而非替代。

问题五:出问题的时候,谁承担责任?

责任是,最持久的价值类型。 必须有人愿意在一个决定上签字并为其后果负责。这不仅是法律要求——更是心理和组织层面的要求。人们需要知道出了问题该怪谁、该信任谁。

围绕责任构建的岗位不会被 AI 消除。它们正在被增强。当分析由机器生成时,签署 AI 产出的分析的那个人承担了更多而非更少的责任。答案不是"更少的人承担责任"——而是"人类在有 AI 生成信息的情况下为更高风险的决策承担责任"。

自问:这个决策出问题的时候,谁负责?如果答案是"没人真正负责"或"委员会",你面对的是一个有 accountability 表演而非真正 accountability 的岗位。如果答案是"这个具体的人",你面对的是一个 AI 威胁不到的持久价值锚点。


第三章:脆弱性热力图

完成价值类型映射并回答了五个诊断问题后,你可以构建一个脆弱性热力图——一张可视化图表,展示你的组织暴露点在哪里。

绘制你的暴露度

将组织的每个职能绘制在两条轴上:

X 轴:自动化时间线(AI 多快会实质性影响这个岗位?) - 立即(0-6 个月):主要是信息中转和标准化决策岗位 - 短期(6-18 个月):协调管理岗和部分专业判断岗 - 长期(18 个月以上):关系和责任岗

Y 轴:战略重要性(这个职能对你的竞争优势有多关键?) - 高:直接创造客户价值的核心差异化因素 - 中:必要但非核心 - 低:可以外包或大幅压缩

危险区域是:立即 + 低/中战略重要性——那些即将被颠覆但对你的竞争优势影响不大的岗位。这些是你有最大脆弱性同时最少理由维持现状的岗位。

价值区域是:长期 + 高战略重要性——那些 AI 增强而非威胁、人类判断和责任仍然核心的岗位。

读懂你的热力图

大多数组织在热力图上发现了一个令人警醒的事实:他们的中间层高度集中在危险区域。协调管理岗位叠加了立即可自动化性和中等战略重要性。这些岗位感觉最"真实"——因为它们涉及真实的会议、真实的人——但它们在结构上最脆弱。

这不是一个令人愉快的发现。解决它所需的组织重构是真实有破坏性的。但无视它不会让它消失——只是意味着有人会在你周围重构。


第四章:第一阶段——审计与映射(第 1-2 个月)

AI 原生重构的第一阶段不是写代码或部署 AI 工具。是诊断工作。你无法重构你不理解的东西。大多数组织从未明确映射过每个角色实际在做什么与职位描述说在做什么之间的差异。

审计协议

一个合格的 AI 准备度审计包含四个并行工作流:

工作流一:角色清单 对组织中的每个角色,记录: - 官方职位名称和部门 - 向谁汇报,谁向其汇报 - 主要活动(实际花时间在什么上,不是职位描述上写什么) - 决策权:他们独立做什么决定? - 信息流:什么信息流入,什么流出?

工作流二:流程考古 对每个高频、可重复的流程,记录: - 流程步骤(从触发到完成) - 哪里需要人类判断,哪里是可选的 - 哪里发生延迟或交接 - 失败模式是什么

工作流三:价值类型分类 使用五个诊断问题作为决策框架,将五种价值类型应用于每个角色。记录推理过程——不仅是结论。未来的重构决策将依赖于理解为什么一个角色被如此分类。

工作流四:利益相关者敏感度分析 识别哪些领导者在当前组织结构中利益最大。不是为了保护他们,而是为了理解阻力会来自哪里、会长什么样。

产出:脆弱性热力图

审计应产生一份动态文档——脆弱性热力图——它能够: - 按价值类型和自动化时间线映射每个角色 - 识别特定部门或职能中脆弱性的聚集点 - 突出当前被低估的高战略重要性岗位 - 提供衡量重构进展的基准

这份文档不是一次性交付物。应每季度更新一次——随着 AI 能力演进和你的重构推进。


第五章:第二阶段——重构与自动化(第 3-6 个月)

完成脆弱性热力图后,你可以从诊断转向行动。第二阶段是大多数组织成败的分水岭——因为它需要对真实的人的真实角色做出真实改变,而这是组织摩擦集中的地方。

高脆弱性 playbook

对于在自动化就绪度上得分高的岗位(价值类型:信息中转、标准化决策、协调管理):

步骤一:自动化执行,提升审计 对于这些岗位,正确的转型不是"用 AI 取代人类"。而是"让 AI 做执行,人类转向审计 AI 输出"。

一个合规分析师,如果主要工作是检查表格是否填写正确,他做的就不是人类应该做的工作——他做的是始终更适合自动化的工作。转型将他们从表格检查员转变为 AI 审计监督——审查边缘情况、调查异常模式、处理 AI 置信度低的升级案例。

如果你设计得当,这不是降职。这是升职——人类现在在做 AI 无法做的高判断工作。

步骤二:建立验证循环 AI 转型中最常见的失败是:完全让人退出循环。最清晰的失败案例:一家金融公司用 AI 处理贷款审批,完全移除了人类审计员,然后在监管审计时崩溃了——因为边缘案例和异常值正是监管者想看到的。

在你移除人类之前,先建立验证循环。设计能够捕捉 AI 错误的 linter 规则和 CI gates。原则是:约束优于指令。约束 AI 能做什么比指令它做什么要有效得多。

步骤三:衡量压缩,而非人头 重构的目标不是减少人头(尽管这经常发生)。目标是压缩从决策到执行的时间。一个团队之前一个季度能发布一个功能,现在能发布三个——这比裁了一半员工但仍按季度发一个功能的团队转型程度高得多。

追踪周期时间、决策延迟和每人产出。这是重要的指标。

中脆弱性 playbook

对于混合了自动化就绪任务和依赖判断任务的岗位(价值类型:专业判断,带可标准化子组件):

步骤一:拆分岗位 将可标准化组件与判断型组件分离。这在结构上很重要——因为它允许你对每个组件应用不同的激励、工具和监督。

一个金融分析师,生产常规报告(可标准化)同时提供投资建议(判断型),不应该被视为一个未分化的岗位。报告功能应该自动化。投资建议功能应该 AI 增强。

步骤二:应用 Agent 编排 对于协调角色——项目经理、项目管理者、团队负责人,他们存在主要是为了管理信息流——考虑将Agent 编排作为重构机制。

OpenAI Symphony 案例是最清晰的例证:一个三人团队使用 Linear 作为 Agent 调度器,完成传统上需要数十名项目经理和协调者的任务。他们创建了一个系统,AI Agents 可以拾取任务、处理任务、无需人工协调即可交接。

步骤三:设计"Harness Engineering"能力 正在出现的、最重要的组织能力不是 AI 专业知识——而是Harness Engineering:设计 AI Agents 在约束内可靠运行的系统的技能。这意味着写有效的系统提示、设计验证循环、设置 Agent 编排基础设施,以及在出问题时的调试能力。

这种能力应该被视为核心组织能力,而非技术副业。

Klarna 重构:一个案例研究

Klarna,瑞典金融科技公司,提供了 AI 原生组织重构最有力的案例之一。转型前:约 3,000 名员工,管理一个连接约 120,000 家商户的支付平台。

重构将 Klarna 的工具生态从约 1,200 个 SaaS 工具压缩为三层 AI 可消费架构。结果:员工从约 7,000 人减少到 3,000 人(通过自然流失而非裁员),公司继续发布创纪录收入数字。

Klarna 案例的关键洞察不是人头减少——而是架构思维:他们不只是将 AI 插入现有工作流程。他们重建了工作完成方式的底层结构。1,200 个 SaaS 工具不是问题。问题是这些工具所代表的组织复杂性——每个工具都是一个协调点、一个交接、一个可能的故障点。

三层架构通过使信息流对 AI 可消费,消除了大部分协调开销。人类从操作工具转变为审计输出。


第六章:第三阶段——建立 AI 原生文化(第 6-12 个月)

第三阶段是最难的,也是最常被跳过的。你可以重构角色、自动化流程、压缩层级。但如果你不改变文化基底——激励、结构、规范和假设——旧结构会在 18 个月内重新冒出来。

让 Token 预算成为管理 KPI

黄仁勋明确表示过 AI 原生运营纪律在英伟达的样子:每个工程师每年 25 万美元的 AI Token 成本。这不是建议工程师使用 AI 工具。这是一个管理指标——一个迫使每个团队认真思考 AI 使用成本和价值的预算约束。

Token 预算是 AI 原生的云成本等价物。它暴露了一个之前看不见的成本(AI 不是免费的,尽管营销宣传说它是)并迫使真正的优化。Token 燃烧快但没有可衡量生产力提升的团队会被质疑。找到如何用更少 Token 完成更多成果的团队会被研究。

这是一个从"AI 采用是好事"到"AI 效率是管理纪律"的深刻转变。

招聘判断力,而非执行力

AI 原生组织中最重要的招聘变化是:审计 AI 输出的人比产生原始输出的人更值钱

这与传统的 talent management 智慧相悖。我们历来重视能"做工作"的人——写代码、做分析、写简报。在 AI 原生组织中,能够批判性评估 AI 产出、识别其失败并纠正的人,在运营上更有价值。

这不是永久状态。是过渡性的——随着 AI 系统改进,审计功能本身将部分自动化。但未来三到五年内,对 AI 输出的判断是最稀缺的能力。

围绕成果而非活动重组激励

旧组织激励是活动:到场、可见、忙碌。AI 非常擅长让活动变得隐形——曾经需要十个人做可见忙碌工作的相同产出,现在通常可以由三个人和一个 Agent 舰队完成。

重组激励以奖励成果,而非活动。这听起来是常识,实际上极难做到——因为"成果"往往比"活动"更难衡量,尤其是在知识工作领域。但替代方案是维持忙碌的表象,同时浪费 AI 带来的实际生产力收益。

具体机制: - 季度 OKR 与业务成果挂钩,而非团队规模或活动水平 - 管理者薪酬与人均产出指标挂钩,而非管理的人数 - 晋升标准强调在关键时刻展示判断力的证明,而非年限或资历


第七章:AI 原生组织蓝图

当重构完成时,AI 原生组织实际上长什么样?组织架构图不是金字塔。它更接近于带有验证层的小 Pod 架构

传统结构 vs AI 原生结构

传统组织:

CEO
  └─ 各部门负责人(高级副总裁、副总裁、总监)
       └─ 经理
            └─ 个人贡献者

每一层存在,是因为信息向上流动、决策向下流动,而这些层就存在于处理这些流动之中。这不邪恶——这是解决 20 世纪协调问题的组织技术。它没有解决 21 世纪的协调问题。

AI 原生组织:

高管领导层(3-5 人,负责战略方向)
  └─ 小型 Harness 工程师 Pod(每个 Pod 3-5 人,端到端负责)
       └─ Agent 舰队(在被设计好的约束内执行的 AI 系统)
            └─ 验证循环(在关键决策点的人类审计)
                 └─ 例外处理(低置信度 AI 输出的高判断人类处理)

结构更扁平,不是因为扁平是好事,而是因为 AI 使得中间层的信息处理功能变得多余。剩余的层存在是为了问责,而非信息处理。

参考模型

OpenAI Symphony:三人团队,使用 Linear 作为 Agent 调度器。该团队管理一个 AI Agent 舰队,执行跨越传统上需要 50 人工程组织才能完成的任务。他们在五个月内完成了 1,500 个 Pull Request。

Cursor 的 Planner-Worker 架构:一个软件开发环境,人类"规划者"分解功能请求,一群 AI"工作者"并发执行。Cursor 报告称,他们处理超过 1,000 次提交/小时,100+ 并发 AI 工作线程。这不是原型——这是生产基础设施。

中国 AI Builder 社区:个人开发者通过维护 75,000+ 行 AI Agent 技能文档,实现团队级别的产出。这是 Harness Engineering 的极端例证——一个人通过精心设计治理其行为的约束和指令,操作一支专业 Agent 舰队。


第八章:创业公司的结构性优势

现任组织面临的每一个结构劣势,都是从第一天起就构建 AI 原生的新公司的结构优势。

新公司没有需要重构的遗留组织架构。他们没有已经做了 20 年相同协调工作的中间层。他们没有奖励活动而非成果的激励结构。

2024 年创立的创业公司,可以合理地计划用三个人加一个 Agent 舰队来运营,而 2019 年风格的公司需要三十个人。这不是科幻——在软件开发、内容生产和客户服务领域已经在发生。

新创公司第一天可以做出的关键架构决策:

先设计约束,再写职位描述。 不要问"我们需要一位工程副总裁",而是问"一个 AI 系统加一个小团队需要在什么约束下运作?"先设计这些约束。职位描述从架构中产生。

先建验证循环,再招聘管理者。 如果组织需要监督,在招聘人类做那些系统本来就能做的监督之前,先建立监督机制(自动化测试、合规框架、审计系统)。当你招聘时,招人来处理自动化系统无法处理的边缘情况。

从成果而非人头开始。 默认的创业公司招聘模式——每个职能招一个人——正在被颠覆。新模式是:未来 90 天我们需要达成什么成果,什么样的人和 AI Agent 组合能最高效地达成这些成果?

微信 AI 战略的启示

微信生态的 AI 接入正在展示另一种 AI 原生组织路径:通过将 AI 能力嵌入现有的超级 App 生态,新进入者不需要重建整个基础设施——他们可以在现有平台之上构建 AI 原生的应用层。

这对中国创业公司的启示是:不一定每个公司都要从零开始建立 AI 基础设施。选择合适的 AI 平台(飞书、钉钉、微信),在其上构建组织能力,可能是比自建更务实的路径。


第九章:为什么大多数转型失败

在深入之前,值得命名大多数 AI 组织转型失败的原因。技术很少是问题。转型失败模式几乎总是组织性的。

失败模式一:无法扩展的 Pilot

AI Pilot 成功了。个人用例显示出显著的效率提升。然后收益没有传播到更广泛的组织。这是因为 Pilot 在隔离中存在——针对特定用例优化,没有为整合进更大组织系统而设计。

教训:在 Pilot 阶段就为扩展而设计。每个 AI 实现都应该被构建为好像它需要跨整个组织运作,而不只是在其测试的沙盒中运作。

失败模式二:没有系统的速度

Gartner 指出,当组织在没有相应投资于支持可靠 AI 运营的组织系统的情况下追求 AI 部署速度时,会观察到 69% 更高的部署失败率。Harness Engineering 学科——设计约束、建立验证循环、建立例外处理——不是可选的。将其视为可选的组织会在失败部署中付出代价。

失败模式三:中间管理层抵制但未重新定向

中间管理者是 AI 重构最自然的抵抗者,因为他们的主要职能——协调管理——正是 AI 自动化的对象。大多数组织犯的错误是:要么对抗这种抵制(疏远有经验的领导者),要么屈服于它(保留一个结构上不具备竞争力的组织结构)。

正确答案:重新定向,而非对抗或屈服:帮助中间管理者成为 Harness Engineers。他们的组织知识,他们对流程哪里会出问题的理解,他们设计约束的能力——这些正是 AI 原生组织设计所需的技能。转变是真实困难的,但这是可能的。

失败模式四:衡量活动而非成果

如果你衡量错误的东西,你会优化错误的东西。大多数组织仍在通过追踪员工使用哪些工具来衡量 AI 采用,而不是追踪这些工具产生了什么。这是组织的等价物——计算卖出了多少健身房会员而不是追踪健康结果。


第十章:中间管理层在过渡中的角色

中间管理层值得拥有自己的一章,因为它是 AI 组织转型的成败群体。

从协调者到 Harness Engineer 的转变

一个花了 15 年发展专业知识的人:协调复杂项目、管理利益相关者关系、驾驭组织政治——他们没有过时。他们被低估了。这些技能——理解复杂系统如何运作、识别哪里会出问题、设计防止失败的约束——正是管理 AI Agent 舰队所需的技能。

这个转变不是自动的,也并不容易。它需要:

  1. AI 系统思维的再培训:理解 AI Agent 如何运作,它们的失败模式是什么,如何设计有效的约束
  2. 身份转变:从"通过他人完成工作的人"转变为"设计让事情被完成的系统的人"
  3. 新的激励结构:奖励 Harness Engineering 能力的薪酬和晋升标准,而不仅仅是人员管理

中层管理者现在应该做什么

如果你是一位正在读这篇文章的中层管理者:未来 12 个月你能做的最有价值的事情,是开发你所管理的系统的专业知识。不只是人,而是流程。映射每个交接点。识别每个决策点。记录每个失败模式。

这是有效 AI 流程设计的原材料。一个没有完成这项工作的组织,无法通过 AI 自动化走向效率。一个完成这项工作的组织,可以构建可靠运行的 Agent 系统——因为它们是用对工作实际如何发生的真正理解而设计的。


第十一章:关键数据点与案例索引

以下是构成本文分析的关键数据点。每个都在所引用的研究中有所记录。

  • 麦肯锡调研:尽管有文件记录的个人效率提升 30-40%,80% 的公司报告 AI 对整体生产力零影响
  • 高盛研究:AI 在特定用例中实现 30% 的个人效率提升
  • OpenAI Symphony:3 人团队,5 个月内完成 1,500 个 PR
  • Gartner 研究:当速度先于系统投资时,部署失败率高出 69%
  • Klarna 重构:1,200 个 SaaS 工具 → 三层 AI 架构;7,000 → 3,000 名员工;持续创纪录收入
  • 黄仁勋 / 英伟达:每工程师每年 25 万美元 Token 预算作为管理纪律
  • Gartner 预测:到 2026 年,20% 的组织将使用 AI 结构性扁平化组织层级
  • 世界经济论坛:AI 原生公司处于结构性增长定位,而非仅仅效率
  • 德勤研究:《大重建——构建 AI 原生科技组织》
  • Cursor 架构:Planner-Worker 模型,1,000+ 提交/小时,100+ 并发 AI 工作线程

第十二章:常见问题解答

Q:我们应该裁员用 AI 取代吗?

简短回答:不应该。不是你想的那种方式。

问题假设了一个替代模型,这在很大程度上是不正确的。正确的模型是岗位压缩:相同的产出量需要的更少的人,因为 AI 处理执行,剩余的人类提升到监督和判断角色。

在实践中,大多数追求激进 AI 重构的组织是通过自然流失而非裁员来实现的。他们不用 AI 取代人——他们只是不在人离开时补员。这在伦理上更可取,在实践上也更有效——因为它允许组织学习逐渐而非灾难性地发生。

那些以 AI 效率名义进行大规模裁员的公司,大多数是在做财务工程动作,而非组织转型。那些构建可持续竞争优势的公司是在重构岗位,而非消除岗位。

Q:我们如何让中间管理层支持重构?

简短回答:重新定向,而非对抗或屈服。

中层管理者不是障碍——他们是 AI 原生转型中可用的最有价值的资源——如果重新定向得当的话。

方法:从一开始就让中层管理者参与诊断过程。他们知道流程实际上在哪里出问题。他们知道哪里有痛苦的交接。他们知道 AI 会在哪里失败,因为他们见过边缘情况。这些知识是有效 AI 系统设计的原材料。

然后,投资于将他们重新培训为 Harness Engineers。他们在 AI 原生组织中的职业轨迹更高,而非更低——如果他们愿意做出转变的话。

Q:小型公司的最低可行 AI 转型是什么?

简短回答:三步——映射高频流程,自动化一个,衡量结果。

你不需要重构整个公司才能开始。你需要识别发生最频繁(每天或每周)的三到五个流程且最标准化的(遵循一致程序),端到端自动化其中一个并在循环中留一个人, rigor 衡量结果。

如果你不能证明一个简单流程的自动化改善了你的运营指标,你还没有为更广泛的重构做好准备。

Q:我们如何衡量 AI 组织重构的 ROI?

简短回答:衡量周期时间、人均吞吐量、决策延迟。不是工具使用。

组织重构的 ROI 不是通过部署了多少 AI 工具来衡量的。它是通过以下来衡量的: - 周期时间:从决策到执行需要多长时间? - 人均吞吐量:每个人产生多少产出? - 决策延迟:从信息可用到决策需要多长时间? - 错误率:自动化流程比手动流程更可靠还是相反?

如果这些指标没有改善,重构没有起作用,不管部署了多少 AI。

Q:如果我们重构了但 AI 工具还不够好怎么办?

简短回答:现在设计约束,未来插入更好的 AI。

本文描述的组织重构——价值类型映射、约束设计、验证循环、例外处理——不依赖于 AI 处于任何特定质量水平。这是好的组织设计,无论如何。

现在构建结构。设计约束。建立验证循环。当 AI 能力提升时(它们会的),你的组织将立即准备好获取这些提升——因为 AI 增强工作所需的组织基础设施将已经存在。

将被甩在后面的公司不是等待更好 AI 的公司。它们是那些从未建立有效使用 AI 的组织能力的公司。

Q:这如何适用于非科技公司?

简短回答:框架相同。时间线更长。

非科技公司——制造业、医疗、法律、金融服务——有相同的组织结构和相同的价值类型分布。区别在于这些行业的 AI 工具成熟度较低,监管约束更显著。

重构 playbook 是相同的: 1. 按价值类型映射 2. 识别可自动化流程 3. 在部署 AI 之前设计约束 4. 建立验证循环 5. 将人类提升到判断和问责角色

时间线更长,因为工具成熟度较低,监管环境更复杂。但目的地是相同的。


第十三章:你的 90 天行动计划

你读完了本文。接下来该怎么做。

第 1-30 天:审计

  • 使用价值类型框架对组织进行角色清单清查
  • 对每个角色应用五个诊断问题
  • 识别你的最高频、最标准化的流程
  • 产出草稿脆弱性热力图

第 31-60 天:设计

  • 针对你的最高脆弱性职能,设计自动化架构(自动化执行 + 人类验证循环)
  • 针对一个高频流程,设计端到端 AI 实现
  • 识别你需要建立或招聘的 Harness Engineering 能力

第 61-90 天:第一阶段实施

  • 实施第二阶段设计的单一流程自动化
  • 建立衡量标准:周期时间、人均吞吐量、决策延迟、错误率
  • 记录你为下一波实施学到了什么

这不是一个全面的转型。这是一种根本上不同思考组织设计方式的开始。那些内化这种转变——学会用价值类型思考、用约束设计、用验证循环思考——的公司,将是那些获取 AI 生产力潜力的公司。

那些不会的公司,将在下一个十年里看着他们的竞争对手搞清楚这一切。


本文是 AI 原生组织系列的一部分。更多关于 AI 组织转型的分析,请参阅我们对 Klarna 重构案例的研究以及我们关于 Harness Engineering 作为核心组织能力的指南。


Comment