Administrator
Published on 2026-04-04 / 9 Visits
0
0

"AI 会替代你的工作吗?一个四维度自评框架(不是又一份安全职业清单)"

AI 会替代你的工作吗?一个四维度自评框架(不是又一份安全职业清单)

最后更新:2026年4月

市面上讲 AI 职业安全的文章,大部分给你一张清单。"这20个职业安全。""那30个岗位不会被替代。"这种文章的问题在于:它几乎没有用——因为 AI 替代的不是职位名称,是价值交付类型。同一个"安全"职业里可以有高度脆弱的岗位,"危险"职业里也可以有成功转型的人。

这篇文章给你一个诊断工具:你可以用它评估自己的具体岗位——你做什么决策,决策的复杂度,在什么上下文中做决策。读完你会得到一个脆弱性评分,更重要的是,你会得到一份针对你实际情况的行动清单。


所有人都犯的底层错误

在进入框架之前,先点名一个让所有职业建议失焦的认知错误。

大家问的是:"我的行业安全吗?"

问错了。AI 不是按行业来部署的。它不看"医疗""金融""营销"然后决定在哪里自动化。它替代的是特定类型的价值——而这种类型可以存在于任何行业中。

举个例子:放射科医生和股票交易员看起来是两个完全不同的世界。但他们有一个关键共同点——核心价值交付都是模式识别,输入的是结构化数据(影像 vs. 市场数据),输出可以被验证(诊断对不对;交易赚赔)。两个都比他们以为的更脆弱。

反过来看:SaaS公司的客户成功经理,和制造业的采购专员,看起来都是普通的"企业职能"岗位。但CS经理如果能做真正的客户关系、维护政治关系、在合同条款上做判断以维系长期合作——这些判断依赖的是关系和上下文,AI很难复制。而采购专员如果只是按供应商评分矩阵打分——这个价值更容易被替代。

真正的问题不是"我在什么行业",而是"我实际交付的是什么类型的价值,这个价值能被 codified、被 reversibility、被 verification、被 contextualization 吗?"

这就是四个维度要测量的东西。


四个维度诊断矩阵

每个维度捕捉你工作的一个基本属性。每个维度给自己打1-5分。分数越低越脆弱,越高越有韧性。

维度一:决策可编码性(Decision Codifiability)

核心问题:你做决策的核心过程,能被写成规则、约束或决策树吗?

这不关乎你有没有把决策过程写下来,而关乎这个过程在原则上是否可以编码——给定足够多的案例,一个智能系统能否学会做和你一样的决定。

一个做分录的初级会计,决策高度可编码。规则是 GAAP。边界情况在会计准则里有文档记录。给足够多的历史分录,AI可以学会正确地做这些记录。

而一个做税务筹划的高级顾问,在灰色地带工作——在模糊的法规、客户关系和商业战略背景之间做判断,推荐一个能通过审计的税务结构——这些决策是不可编码的。规则存在,但关于如何在上下文中运用它们的判断、如何把握分寸、什么时候激进什么时候保守——这些是几十年积累的隐性知识(tacit knowledge)。

维度一评分标准

  • 1分:我的决策遵循明确的规则/规范,几乎不需要判断
  • 2分:有规则,但我需要做一些中等程度的上下文判断
  • 3分:部分过程有文档,但我经常需要做判断
  • 4分:我的决策需要大量难以编码的上下文判断
  • 5分:我的决策依赖隐性知识、直觉和无法写进文档的关系动态

维度二:决策可逆性(Decision Reversibility)

核心问题:如果你做了一个错误决策,多容易可以修正?

这个维度捕捉一个微妙但关键的概念:AI系统可以迭代。它可以尝试一个方案,评估结果,然后调整。这让它们在可逆过程中很强大,但对不可逆的过程有限制。

手术是经典案例。错误的切口无法撤销。但有趣的地方在这里:手术的执行是不可逆的,但手术的规划越来越可逆。手术方案可以被模拟、修改、再模拟。AI不需要做手术本身来提供价值——它可以在可逆的规划阶段提供价值,压缩人类外科医生的认知工作。

这在很多岗位内创造了一个分裂:可自动化的部分是可逆的执行,安全部分是可逆的判断。

代码部署也遵循同样的逻辑。错误的部署可以回滚(rollback)。这就是为什么 AI 编程工具如此有效——代码变更的可逆性意味着错误可以快速纠正。但是系统设计——决定做什么、什么依赖关系重要、什么故障模式存在——这不是可以轻易"回滚"的。你不能"拆掉"一个系统架构。

维度二评分标准

  • 1分:我的决策很容易逆转——可以无代价撤销/回滚
  • 2分:我的决策可以逆转,但需要中等努力,有一定成本
  • 3分:逆转我的决策需要大量努力,但技术上可行
  • 4分:我的决策有持久影响,但可以在时间内纠正
  • 5分:我的决策在很大程度上不可逆——错误有永久性后果

维度三:质量可验证性(Quality Verifiability)

核心问题:你的产出质量可以被自动检查吗?

这可能是四个维度中操作意义最大的一个。当AI产生了一个东西,你怎么知道它好不好?

对于代码,跑 linter。跑测试。有 CI/CD 流水线自动验证正确性。这意味着软件开发中的执行层高度脆弱——AI可以生成代码,系统可以自动验证那段代码是否工作。

对于营销文案,跑 A/B 测试。测量点击率、转化率、跳出率。高度可验证。这意味着 AI 生成的文案可以被自动评估 against 绩效指标。

对于战略建议——"我们应该进入这个市场吗?"——没有自动验证器。质量由利益相关的人来判断,这些人的利益可能相互冲突;由几年后才知道结果的业务结果来判断;由无法用指标捕捉的上下文因素来判断。

验证的缺口就是人类保持必要性的地方。不是因为人类更好(往往不是),而是因为验证过程本身需要无法自动化的判断。

维度三评分标准

  • 1分:产出质量可以用明确指标自动验证
  • 2分:质量可以自动验证,但指标有一些局限性
  • 3分:质量需要人工审核,但标准相对客观
  • 4分:质量需要专家判断,带有一定主观性
  • 5分:质量评估高度主观,依赖上下文

维度四:上下文依赖性(Context Dependency)

核心问题:你工作所需的关键信息,是在文档里,还是在人的脑子里和关系里?

AI系统在处理文档方面非常出色。它们可以阅读每一篇专利、每一份判决、每一篇研究论文。它们做不到的是获取存在于关系、组织政治、行业直觉和隐性知识中的上下文。

一个律师准备谈判,可以获得文档——合同、往来邮件、法律先例。但律师有关键上下文,不在任何文档里:对方律师在之前谈判中的行为方式;客户的真实优先事项(可能与声明的不同);客户组织内部的政治动态,影响他们实际能同意什么。这些上下文知识大部分是 AI 无法获取的。

对比一下:合规官检查一笔交易是否符合监管要求。法规是文档。交易细节是文档。所需的上下文几乎完全是文档形式的。这就是为什么合规工作比看起来更脆弱——所涉及的"判断"往往是把文档规则应用到文档事实。

维度四评分标准

  • 1分:最关键的上下文都在 AI 能访问和处理的文档中
  • 2分:部分上下文在文档中,但重要元素存在于组织知识里
  • 3分:上下文混合——文档提供基础,但关系/组织上下文很重要
  • 4分:重要上下文存在于关系、组织政治和隐性知识中
  • 5分:关键上下文几乎完全基于关系,AI无法获取

你的脆弱性得分

把四个维度的分数加起来。最高20分(最脆弱),最低4分(最有韧性)。

总分4-8(低脆弱性):你的岗位通过隐性知识交付价值、做有持久影响的不可逆决策、在低可验证性的上下文中运作、高度依赖关系型上下文。例子:高级顾问、出庭律师、创意总监、创始人、治疗师、外科医生。

总分9-14(中等脆弱性):你的岗位混合了可自动化和不可自动化的元素。你的部分价值是可编码的、可逆的;部分依赖判断、关系和上下文。大多数职场人都在这个区间。例子:产品经理、金融分析师、营销经理、项目经理、工程师。

总分15-20(高脆弱性):你的岗位主要通过信息处理、标准化决策、可逆结果和基于文档的上下文来交付价值。这不意味着你会失业——但意味着你岗位的性质会快速变化。例子:初级开发、数据录入、基础内容生产、一线客服、标准化合规审查。

维度 1(最脆弱) 2 3 4 5(最有韧性)
决策可编码性 遵循明确规则 带一定判断的规则 部分流程,经常需要判断 需要大量难以编码的判断 隐性知识、直觉
决策可逆性 容易逆转 逆转有中等成本 逆转需要大量努力 持久影响,但可以纠正 大部分不可逆
质量可验证性 自动可验证 指标有局限性 需要人工审核,标准较客观 需要专家判断,带主观性 高度主观
上下文依赖性 主要在文档 文档/关系混合 文档为基础,关系也重要 关系和政治很重要 几乎完全关系型

五层替代:从现在到长期的时间线

理解不同脆弱性等级的人什么时候会面临冲击,帮助你优先排序自己的应对。

第一层:信息传递(2024-2026,已在发生)

这是 AI 在做数据库和互联网已经做过的事——把信息从存在的地方移动到需要的地方,以加工过的形式。写代码。起草内容。清洗数据。一线支持——把问题和解决方案匹配起来。

数据很震撼。OpenAI 的 Symphony 团队——3个人管理 AI agents——在5个月内合并了1500个PR。每天每人约3.5个PR,持续五个月。对比的不是一个3人团队,而是整个工程组织。

如果你的岗位主要是信息传递——接收需求,处理,产出结构化结果——你在第一层。替代不是将要发生,而是已经在发生。

第二层:标准化决策岗位(2026-2027)

一旦 AI 能处理执行,它就能越来越多地处理决策——当决策遵循可预测模式的时候。

基础审计。合规筛查(对照文档化的标准)。标准研究综合。常规法律审查(议题已被充分界定的情况下)。测试和 QA(通过/失败标准明确)。

这里开始让中等技能知识工作者不舒服了。做标准化合规审查的人不只是在危险中——他们的岗位在每个月都在失去经济意义。公司付8万年薪做合规筛查,可以付2万让 AI 做更快更一致。

但注意:这是关于标准化决策。一个能在模糊的监管灰色地带中穿梭、对新情况做判断、就监管策略提供建议的合规官——那是第四层的工作,不是第二层。

第三层:协调型中层管理(2027-2028)

项目协调。状态报告。标准类别的供应商管理。确保工作按计划进行的工作。

Gartner 预测,到2026年,20%的组织将使用 AI 来精简结构。当 AI 能生成状态报告、追踪依赖关系、识别瓶颈、标记风险——项目协调员的价值主张就缩小了。

这不意味着项目经理消失。这意味着协调功能被压缩。项目经理如果通过战略判断、干系人管理、驾驭组织复杂性来增加价值——他们仍然必要。如果主要工作是追踪任务和更新电子表格——那是第三层。

第四层:专业服务,重构(2028-2030)

这里叙事变得复杂。律师、医生、顾问、战略型产品经理——这些岗位不会消失,但它们在围绕 AI 重构。

可自动化的执行被压缩。律师以前60%时间在做文档审查,现在做10%——因为 AI 处理文档审查。听起来是解放。也是——但这意味着这类工作变少了,需要的人也更少。

判断和责任价值上升。当执行变得廉价和丰富,溢价移动到责任。签字的高级合伙人、对有风险策略做判断拍板的人、承担激进立场职业风险的人——价值在这里集中。

处于这一层的专业人士:你比第一到第三层的人有更多时间,但时间不是无限的。窗口期是建立你的判断能力,而不是仅仅建立执行技能。

第五层:意义确认岗位(长期)

老师。治疗师。创意总监。创始人。护理人员。牧师。

这些岗位的共同点:它们真正做的不是信息传递或决策执行——而是人类意义建构。一个能激励学生的老师,不是在传递比视频更快的信息;他们在确认意义、建构认同、创造归属。治疗师不是在提供关于心理健康的知识;他们在提供一个人见证另一个人的痛苦。

AI 无法为人类确认意义。它可以提供信息,可以提供互动,但存在性维度——"你被看见了,你重要,你的人生有意义"——那基本上是人类的专利。

如果你在这个层级,你的岗位安全。但"安全"不等于不变。它意味着你的角色变得更有价值,也潜在地更有要求,因为其他世界在围绕 AI 重构。


数据告诉我们的真相

对已知和未知的东西要诚实。

生产力悖论:NBER 调查显示,尽管有个体生产力提升,80%的公司感觉 AI 零影响。这看起来反直觉。答案可能是组织性的:个体生产力提升不会自动转化为公司层面的影响,当周围的流程、激励和结构没有改变的时候。

个体收益是真实的:Goldman Sachs 数据显示,AI 在特定用例中将个体生产力提升30%。这与我们在第一层看到的相符——有 AI 加持的个人可以产出显著更多的产出。

质量差距在缩小:Harness 报告,AI 编程重度用户的部署失败率高出69%。这告诉我们一个重要的事情:AI 辅助执行的速度超越了质量保证。那些每天交付3.5个PR的人也在交付 bug。瓶颈正从"写代码"移动到"验证代码在上下文中工作"。

Token 经济正在重构知识工作:Jensen Huang 指出,25万美元/年的 token 预算大约是一个工程师薪水的50%。重度用户每天消耗2-3亿 tokens。这不只是一个成本指标——它是价值流向的信号。能有效指挥大量 AI 资源的人,价值是手工做工作的人的倍数。

中国 AI Builder 圈子的模式:一个人,在7.5万行 skill 文档的社区里,做团队级别的输出。这不是说 AI 替代了工作——是说一个用 AI 的人在做以前需要一个团队的事。单元经济学在个人层面正在改变。


真实的人,真实的转型:三个案例

数字和框架是抽象的。让我们具体化——三个在不同脆弱性矩阵上评分的人,以及他们做了什么。

案例一:高脆弱性的开发者

张明是一家中型 SaaS 公司的后端工程师。三年前,他每天的工作是:写 CRUD 接口、写测试、修 bug、重复。高度可编码的决策、高度可逆(git revert 存在)、高度可验证(测试通过或不通过)、上下文大多在代码/文档中。

得分:17/20。高脆弱性。

发生了什么:2024 年 AI 编程工具成为主流,张明看着自己的产出倍增。以前每周写 2-3 个接口,现在能交付 8-10 个。但他注意到一件事:他交付的 bug 也倍增了。他的经理开始问:有了 AI 帮助,为什么团队没有交付显著更多的价值?

张明的醒悟:执行层正在被商品化的速度快于他的判断力被重视的速度。他面临一个选择:继续竞速生产更多代码(这场竞争他最终会输给 AI),或者向上一层移动。

他做了什么:用 AI 节省下的时间开始做系统设计讨论、架构评审、指导还在学基础的初级开发者。他把自己定位为可以被信任做重要决策的人——不是因为他写代码更快,而是因为他更好地理解了系统。

18 个月后:张明现在领导一个 4 人团队,其中包括 AI agents。他作为编码者的个人贡献已被 AI 替代,但他作为系统思考者和决策者的贡献被放大了。他没有逃脱脆弱性——他用判断价值交换了执行脆弱性。

案例二:中等脆弱性的产品经理

李娜是一家消费者 app 公司的 PM。每天的工作:写 PRD、协调工程、追踪指标、管理干系人沟通。部分可编码(需求模板、路线图流程),部分需要判断(优先级决策、干系人管理)。

得分:12/20。中等脆弱性。

发生了什么:李娜看着项目协调这部分最先被自动化。AI 生成状态报告、AI 综合干系人反馈、AI 监控项目健康。角色中"项目协调"的部分显然是可以压缩的。

但判断的部分——决定做什么、在冲突的干系人优先级中导航、在不确定性下做权衡——那些仍然是人类领地。

李娜做了什么:她没有抵制协调工作的自动化,而是顺势而为。用 AI 处理状态更新和会议总结,然后把省出的时间深入到战略问题:"我们在做正确的事情吗?我们的优先级和业务结果对齐了吗?"李娜成为了带来战略清晰度的 PM,而不只是项目管理者。

18 个月后:李娜现在是产品总监, scope 在 AI 之前可能需要 3 个 PM。执行层被压缩了,但战略层扩展了。李娜用 AI 作为向上移动的杠杆,而不是作为威胁来抵制。

案例三:低脆弱性的顾问

王总是一位专注于制造业运营转型的战略顾问。核心工作:理解客户复杂的组织动态、诊断系统性问题、推荐需要驾驭政治阻力和行为改变的变革方案。高度隐性知识、基本上不可逆的建议、低可验证性(结果取决于实施,而不只是建议)、深度依赖关系和上下文。

得分:6/20。低脆弱性。

发生了什么:没有立即发生什么。咨询行业比软件移动得慢。AI 可以帮助研究和分析,但做客户工作所需的判断——理解客户真正需要什么 vs. 他们在问什么、驾驭政治动态以让建议被实施——那些仍然是人类领地。

但王总注意到一个更微妙的变化:客户变得越来越精明。他们看过 AI 演示。他们知道 AI 能做什么。一些人开始问他们是否真的需要顾问,或者只需要 AI 工具。

王总的回应:加倍押注 AI 无法复制的人类要素。把隐性的东西显性化——把他头脑中的隐性知识文档化、建立可以教给客户的框架、把自己定位为不只是答案的来源而是能和客户一起驾驭复杂性的思考伙伴。价值不在于建议本身,而在于判断过程和关系信任。

18 个月后:王总的客户比以前更重视他,而不是更不重视。但项目的性质变了。更短、更聚焦、更偏咨询。以前"身体力行做分析"的咨询模式正在消亡;"可信赖顾问"的模式正在兴旺。

三个人身上的共同模式:没有人靠抵制 AI 存活。他们靠识别自己的哪些技能会被放大、哪些会被商品化,然后相应地定位自己。答案从来不是"抵制 AI"或"向 AI 投降"——始终是"找出判断溢价在哪里,然后向那里移动"。


按脆弱性等级的职业策略

如果你属于高脆弱性(15-20分):现在就开始行动

你不会在一夜之间被替代。但经济逻辑对你不利——你正在交付的价值正在商品化,趋势会持续。

策略:从执行转向判断。不是"学 AI 工具"——那是必要条件但不是充分条件。更深层的转变是成为能审计 AI 产出的人,而不是生产它的人。

写样板代码的初级开发者:AI 可以写样板。价值移动到高级工程师——能审查那段代码、发现微妙的 bug、理解系统含义、做架构决策。审计 AI 输出的人比被 AI 替代的人更安全。

具体行动:

  • 开始审查你领域中的 AI 生成代码/内容/分析
  • 建立关于质量判断的能力,而不只是生产能力
  • 找到 AI 失败的边缘案例,成为那些方面的专家
  • 把自己定位为 AI 产出"人类审查者"

如果你属于中等脆弱性(9-14分):你有时间,但不是无限的时间

你在最常见的位置——混合价值交付,部分可自动化,部分不可自动化。可自动化的部分会压缩;判断的部分会增值。

策略:在用 AI 放大你可编码工作的同时,深化你的不可编码技能。目标是成为用 AI 做10倍产出的人——而不是被 AI 替代的人。

用 AI 自动化状态报告但把战略判断带到干系人管理中的项目经理。用 AI 自动化数据收集但把市场直觉带到投资决策中的分析师。用 AI 做执行但把品牌直觉带到策略中的营销经理。

风险是停留在中间——做足够的执行工作以至于被自动化威胁,但没有建立足够的判断力以爬上价值链。

具体行动:

  • 识别你工作中哪40%是执行(很可能可自动化)vs. 判断(不可自动化)
  • 系统性地用 AI 压缩执行工作
  • 把省出的时间投资到判断密集的活动:策略、干系人管理、复杂问题解决
  • 建立能创造 AI 无法获取的上下文的关系
  • 习惯"我用 AI 做 X"作为核心职业能力

如果你属于低脆弱性(4-8分):别掉以轻心

你的岗位真的不容易自动化。但你周围的世界在变,含义比你以为的更微妙。

策略:你的组织可能会围绕你重构。准备好管理 AI agents 而不是管理初级员工。使得初级岗位脆弱的经济逻辑迟早会让初级员工结构变得低效。

以前管理分析师团队的高级顾问现在管理 AI agents。以前指导设计团队创意总监现在指导 AI 生成的选项。以前有大手术团队的外科医生现在用更精简、AI 加持的团队运作。

你的价值安全。你的团队结构不安全。

具体行动:

  • 学习指挥 AI 系统,而不只是使用它们
  • 发展在 prompting、评估和迭代 AI 输出方面的技能
  • 在人类判断仍然 essential 的领域建立专业知识
  • 考虑 AI 如何改变你的业务的经济学
  • 在你的领域中主导 AI 整合,而不是被动地受影响

没人问的问题:那80%怎么办?

NBER 发现,尽管媒体铺天盖地,80%的公司感觉 AI 零影响。这是一个关键数据点,应该塑造你的思维。

个体生产力提升不会自动转化为组织影响。 一个用 Copilot 的开发者每天产出3倍代码,不一定为公司创造了3倍价值——如果瓶颈在代码审查、需求收集、部署或干系人对齐的话。

这意味着 AI 对工作的转型不会像最乐观的预测那样顺利或彻底。这也意味着采用 AI 的组织障碍与技术障碍同样重要。

对于你的职业:问题不只是"AI 能做我的工作吗?"而是"我的组织会创造让 AI 做我的工作的条件吗?"在很多情况下,答案是"还没有"——这意味着你有比你脆弱性得分显示的更多缓冲。

但不要把组织惰性误认为是真正的韧性。能力正在到来。问题只是时间。


FAQ:大家真正问的问题

问:2026年会有大规模裁员吗?

诚实的答案:大规模裁员是管理决策,不是技术必然性。AI 让个体工作者更有生产力,但组织重构需要管理层的意愿、经济压力和制度变革。

我们应该预期劳动力结构变化,而不一定是人数减少。用 AI 以更少的人做更多事的公司是一种结果。用 AI 以同样的人服务更多客户的公司是另一种。两者都在发生。

最有可能追求激进裁员的公司特征:(1) 高度可编码的工作,(2) 清晰的产出指标,(3) 管理层有削减成本的动力,(4) 服务交付中对人判断的需求有限。具备这些特征的公司中,第一到第二层岗位可能看到 displacement。第三到第四层的岗位较少。

问:什么技能真正抗 AI?

没有抗 AI 的技能——只有目前难以自动化的能力。但有些类别的技能更持久:

  • 隐性知识:在特定领域、尤其是在模糊条件下通过多年经验发展的直觉
  • 社会智能:读人、理解动机、驾驭复杂人际动态
  • 创造性判断:不是产生创意选项(AI 可以做到),而是在上下文中评估和选择选项
  • 责任承担:愿意为决策承担责任,包括其不可逆的后果
  • 意义建构:帮助他人找到目标、意义和连接

这些不是能从课程中学到的技能。它们是通过经验、反思和对困难问题的持续投入发展出来的。

问:[开发者/设计师/PM/分析师] 我的具体岗位安全吗?

在职位名称层面这个问题无法回答。同样是"开发者",写样板代码的是第一层脆弱。做出架构决策、在模糊需求中导航、为系统结果负责的开发者是第四层。同样的职位名称,非常不同的脆弱性。

重要的是:你实际在哪个层面运作?如果70%的时间在做第一层执行,你的 trajectory 很重要。如果70%在做第四层判断,你的处境不同。

用四个维度给你的实际工作打分,而不是给你的职位名称打分。

问:我应该学 AI 工具还是转行?

两个都要,不是非此即彼。每个人都应该学习有效指挥 AI 系统——这是正在变成基线的职业能力,就像使用电子表格或电子邮件一样。但"学 AI 工具"不是职业策略;它是最低要求。

更重要的问题:你的当前职业 trajectory 是指向更多还是更少可编码的工作?如果你在走向判断密集型的工作——留下并投资那条路径。如果你在走向执行密集型、标准化的工作——方向比工具更重要。

问:我现在应该做的唯一一件事是什么?

如果你在第一到第二层脆弱的岗位:找出正在颠覆你领域的 AI 系统,成为审查其输出的专家。"使用 AI"和"批判性地评估 AI 输出"之间的差距正是职业价值正在移动的地方。

如果你在第三到第四层:找到你做的那个 AI 目前做不到的判断密集型活动,系统性地变得更好。深化判断肌肉,而不只是维持执行技能。

常见的错误:把精力花在担心 AI 上,而不是建设在一个 AI 加持世界中仍然有价值的具体能力上。


升值的技能 vs. 贬值的技能

如果说四个维度框架告诉你站在哪里,这个区分告诉你往哪个方向跑。

在 AI 世界中贬值的技能

  • 信息记忆:知道事实。AI 拥有所有事实。这从来都不是真正的高价值技能——价值在于知道去哪里找事实以及如何应用它们,而不在于记住本身。
  • 执行一致性:反复以相同方式做相同任务。AI 做得更好、更快,不会疲劳。
  • 结构化数据上的模式匹配:在数据中发现异常——当数据结构良好、模式已知时。AI 看到这些模式更快。
  • 浅层信息综合:总结文档、聚合报告、创建标准分析模板。AI 可以规模化地做到这一点。

在 AI 世界中升值的技能

  • 系统判断:理解复杂的相互依赖系统如何运作、故障点在哪里、改变一个部分会发生什么。这需要 AI 没有的心智模型。
  • 上下文决策:在相关上下文不在任何文档中的情况下做决策——它在关系、组织动态和对事物实际运作方式的隐性理解中。
  • 干系人驾驭:理解不同人需要什么、他们实际上能同意什么、如何在没有明确授权的情况下建立共识。
  • 责任承担:为不可逆决策承担责任。当事情出错时,成为签字的人、站在决定后面的人。
  • 创造性整合:不是产生创意选项(AI 很擅长这个),而是识别哪些创意选项适合情况、哪些想法会与干系人产生共鸣、哪个方向有势能。

模式是:在明确可编码的输入上操作的技能贬值。需要隐性知识、上下文判断和责任的技能升值。

这不是关于"有创意"vs"会分析"——两个类别都有升值和贬值子技能。关键是你的技能是对信息进行操作(AI 可以处理),还是对上下文进行操作(AI 无法获取)。


自评检查清单

在你关掉这篇文章之前,做实际的工作。不要只是读框架——应用它。

维度一:决策可编码性 - [ ] 我能把我的核心决策描述为一组规则或决策树吗? - [ ] AI 系统需要学习"隐性知识"才能做这些决定,还是只需要模式? - [ ] 我的同事把我价值描述为"判断"还是"遵循流程"?

维度二:决策可逆性 - [ ] 如果我做错了决定,恢复过程是什么? - [ ] 我的决策可以通过标准操作程序逆转吗? - [ ] 我的决策是否造成了不可逆的承诺或状态变更?

维度三:质量可验证性 - [ ] 我能对我的工作跑自动化测试或检查吗? - [ ] AI 生成版本的工作是否很难与我的区分开来? - [ ] 是否有清晰、客观的指标来判断我是否做得好?

维度四:上下文依赖性 - [ ] 我工作所需的信息是否在文档/数据库中可用? - [ ] 我最重要的决定是否依赖于关系或组织上下文? - [ ] 如果 AI 系统只能访问文档化的知识,它是否会缺少关键信息?

评分:每个维度加1-5分。总分越低越脆弱。总分并识别你在哪个脆弱性类别。


唯一重要的结论

AI 不是来替代你的行业的。它是来替代特定类型的价值交付的——而那些类型存在于每个行业中。

问题不是"AI 会替代我的工作吗?"而是"我工作中的哪些部分是可以被 AI 替代的,我在哪些地方提供 AI 无法复制的价值?"

四个维度——可编码性、可逆性、可验证性、上下文依赖性——给了你精确回答这个问题的语言。评分给了你行动的起点。

你用这些信息做什么,取决于你所在的位置。高脆弱性意味着有意识地转向判断。中脆弱性意味着用 AI 放大自己的同时建立判断能力。低脆弱性意味着不要把岗位安全误认为是组织稳定。

共同的主线:在一个 AI 加持的世界里,判断是溢价技能。一切可以被编码、逆转、验证和自动化的都会被自动化。人类工作的残余价值在于那些无法被自动化的决策。

这不是乐观也不是悲观。只是方向。


你哪个维度得分最高?你建立判断主导价值的当前策略是什么?欢迎评论——但请用框架来 ground 讨论在具体中,而不是泛泛而谈。


标签:AI, 职业, 未来工作, 职业替代, 技能, 自评

SEO 关键词:AI 替代工作, AI 职业安全, 未来职业, AI 取代工作, 职业转型, 技能评估


Comment