你的工作不会消失,它只是不断在你身边逐渐萎缩 | Jan Tegze

作者:Jan Tegze | 日期:2026年2月2日

人工智能不会夺走你的工作。它正在使你的专业知识变得毫无价值,而你却眼睁睁看着。每个人尝试的三件事,以及真正有效的一个策略。

周一早晨,你打开笔记本电脑,心中萦绕着一个挥之不去的问题:两年后我还会有一份有意义的工 作吗?

不是关于你是否会被雇佣。而是你做的工作是否还会有所意义。

上周,你花了三个小时写一份活动简报。你看到一位同事用 AI 代理四分钟内就能生成 80%质量的内容。如果坦白说,可能达到 90%。

你仍然有你的工作。但你感觉它正在你周围缩小。

问题不在于机器人来了,而在于你不知道自己应该擅长什么了 。你花了五年时间积累的 Excel 技能?自动化了。你研究竞争对手并整合信息的能力?有专门的代理可以处理。你撰写清晰项目更新的技能?消失了。

你失去专业身份的速度比你重建它的速度更快。而且没有人告诉你接下来会发生什么。

每个人尝试的三件事,实际上都不起作用

当你感觉自己的价值在衰退时,你会做看起来合理的事情。你适应。你学习。你试图保持相关性。

首先,你要学会更好地使用 AI 工具。你参加提示工程课程。你精通 ChatGPT、Claude,掌握下周即将推出的任何新平台。你成为团队里的“AI 专家”。你心想: 如果我不能超越他们,我就要比任何人都更擅长使用它们。

这行不通,因为你仍然在比拼执行速度。你只是匹更快的马。而执行正是被商品化的东西。六个月后,这些工具将更容易使用。你“精通提示”的专长在界面改进的瞬间就变得毫无价值。你学会了更好地使用铲子,但反铲车还是会来的。

其次,你要加倍深耕你的现有专长。会计师学习更高级的税法。设计师掌握更多软件。分析师构建更复杂的模型。你心想:我会深入到他们无法取代我的程度。

这之所以失败,是因为在逐渐消失的领域中,深度是一个陷阱。你正在一个洪水区建造堡垒。代理不再仅仅是匹配人类在中等水平的专业知识。它们正在快速接近在狭窄领域中的专家级表现。你的专业知识变成了一种负债,因为你把一切都投资在了正在被积极自动化的东西上。你正在成为 1995 年世界上最好的电报操作员。

第三,你试图通过软技能“保持人性”。你倾向于创造力、同理心、关系建立。你参加情商研讨会。你专注于成为不可替代的人性。你认为:他们无法自动化使人成为人的东西。

这之所以失败,是因为它过于模糊而无法指导行动。当 AI 能在 10 秒内生成 100 个想法时,“发挥创造力”究竟意味着什么?当你工作的职责是撰写报告时,如何将同理心变现?这些建议看似正确,却无法提供方向。最终你仍然在做同样的工作,只是增加了焦虑感,目标感也变得更加模糊。

所有三种方法真正的问题在于,它们是应对措施而非重新设计。 你试图让你的旧角色适应新的现实。真正有效的是构建一个完全新角色,这个角色在之前并不存在。

但没有人教你那是什么样子。

三个人在跑步机上奔跑,象征着失败的人工智能适应策略,最终徒劳无功,一事无成。

对你不利的经济逻辑

这并非因为你未能适应,而是因为经济激励结构被完美设计来制造这个问题。

这个机制很简单, 公司通过采用 AI 代理可以立即获利 。每项自动化任务都会导致成本降低。首席财务官看到电子表格:一个 AI 订阅可以替代中级员工 40%的工作。这个数学原理很简单。这个决定很明确。

很多人听到这话会很反感。但如果他们是公司所有者或坐在领导位置上,他们会做同样的事情。公司存在的目的是追求利润,就像员工努力提高薪水一样。系统就是以这种方式运行了几个世纪。

但公司不会从培训你担任尚不存在的更高阶角色中获利。

为什么?因为那个新角色是未定义的、不可衡量的、不确定的。你无法在季度财报电话会议上提出“弄清楚人类现在应该做什么”这样的目标。你也无法展示“重新设计工作本身”的投资回报率。短期激励会取胜,长期战略会失败。

没有人会投资于发现你新角色应该是什么的 12-24 个月过程,因为这项投资没有立竿见影的回报。

我们正处于速度不匹配的状态。 代理能力以 6-12 个月的周期在加速增长。而人类通过传统系统进行的适应则基于 2-5 年的周期。

大学无法快速重新设计课程。他们教授的技能在学生毕业前就会被自动化。公司无法快速进行再培训。等到他们识别出新技能需求并建立项目时,形势又发生了变化。你无法快速调整方向。职业转型需要时间。抵押贷款不会等待。

我们以前从未做过这件事。

之前的自动化浪潮发生在制造业。你可以看到工厂车间。你可以目睹工作消失和新工作出现。存在地域和时间上的分离。

这有所不同。知识型工作正在被自动化,而你仍坐在办公桌前。旧角色和新角色同时存在于同一个人、同一家公司、同一时刻。

而且没有人有经济动力去解决这个问题。公司通过降低成本来最大化价值,而不是通过劳动力转型。教育机构太慢了,而且与实时市场需求相去甚远。政府还没有理解这个问题。你太忙于保住你目前的工作,以至于没有时间去重新设计你的未来工作。

这个系统无法提供帮助,因为它并非为持续、快速的角色演变而设计;它是为稳定性而设计的。

我们正用工业时代的机构来解决指数时代的难题。 这就是你感到停滞不前的原因。

两座时钟显示出人类适应速度与人工智能发展速度之间的不匹配。

你的经验变得毫无价值(时间线)

让我给你讲一个关于我朋友的故事,我们叫她莎拉。她曾是一家中型咨询公司的高级研究分析师。十年经验。她的工作:客户公司会问诸如“我们在亚洲市场的竞争对手在做什么?”之类的问题,她就要花上两到三周时间收集数据、阅读报告、采访专家、整合发现、制作演示文稿。

她很出色。客户喜欢她的工作。她按每小时 250 美元收费。

该公司在 2023 年第二季度部署了一个 AI 研究代理。不是为了取代 Sarah,而是“增强”她。管理层关于人机协作说了所有正确的话。

该代理可以在 90 分钟内完成 Sarah 的初步研究。它会扫描数千个来源,识别模式,生成一份初稿报告。

第一个月:Sarah 松了一口气。她认为可以专注于高价值综合工作。她会采用代理的输出进行完善,添加战略见解,使其符合客户需求。

第三个月:一位合伙人问她:“为什么现在要花一周时间?AI 在一天内就能给我们 80%的需求。剩下的 20%还有什么价值?”

莎拉无法清晰地回答。因为有时候代理的输出只需要稍作编辑。有时候她的“战略洞察”其实是代理已经识别出的事物,只是表述方式不同。

第六个月:公司进行了重组。他们没有解雇莎拉。而是将她的职位改为“质量审查员”。她现在同时监督 6-8 个项目的 AI 输出,而不是负责 2-3 个项目的全过程。

她的头衔保持不变。她的计费费率降至每小时 150 美元。她十年的经验感觉毫无价值。

莎拉尝试了所有方法。她参加了一个 AI 提示工程课程。她试图深入研究专业研究方法。她强调客户关系。但这些都无关紧要,因为公司已经做出了经济计算。

一个 AI 订阅:每月 50 美元。莎拉的年薪:14 万美元。代理人不需要完美。它只需要以 5%的成本达到 70%的效果。

说明系统性问题的部分,你经常听到 AI 供应商说,由于他们的 AI 工具,人们可以专注于高价值工作。但当被问及具体是什么时,他们会变得含糊其辞。战略思考。客户关系。创造性问题解决。

没有人能定义实际中高价值工作到底是什么样子。 没有人能描述新的角色。所以他们只能默认唯一能衡量的东西:成本削减。

Sarah 六个月后离开了。公司雇佣了两个初级分析师,每人 65K 美元来做她之前的工作。有了 AI,他们的效率只有 Sarah 的 85%。

Sarah 还在试图弄清楚自己擅长什么。据最后一次听说,她正在考虑完全离开这个行业。

天平显示,十年的工作经验比不上五十美元的人工智能订阅服务

停止尝试在当前工作中做得更好

那些取得成功的人并不是试图在当前工作中做得更好。他们正在构建新的工作,将人类判断与代理能力结合起来。

不是成为提示工程师,不是成为 AI 专家,而是成为使用代理来执行他们之前无法完成的任务的协调者。

马库斯曾是一家零售公司的营销策略师。当 AI 工具出现时,他没有试图写出比 AI 更好的营销文案。他开始同时运行 50 个广告活动变体。这在之前需要 12 个人的团队才能完成。

他会使用代理来生成变体,测试它们,分析结果,迭代。他的角色变成了:设计测试框架,解释代理发现的模式,基于人类无法手动处理的数据进行战略投注。

六个月内,他的广告活动比竞争对手表现出色 40%。不是因为他擅长任何单一任务。而是因为他能够以之前不可能达到的规模进行操作。

这是一个有效的模式。找出你领域中因人类局限而存在的限制。哪些事情因为耗时过长而无法完成?哪些问题因为分析成本过高而未被提出?哪些实验因为需要 20 人的团队而无法进行?

然后利用智能体来消除这种限制。不是为了更快地完成当前任务,而是为了完成以前不可能完成的事情。

然后在判断层面建立专业知识。我们应该运行哪些实验?哪些模式是重要的?这些结果对战略意味着什么?我们什么时候应该覆盖智能体的建议?

这不是模糊的战略思考。这是具体的,你是决策者,正在协调一项以前不存在的能力。

你并非在与代理人竞争。 你正在创造一种需要你与代理人共同参与的新能力。 你并非因为任务做得更出色而具有不可替代性。你之所以不可替代,是因为你构建了只有在你统筹下才能存在的东西。

这需要你放下“做 X 的人”这一身份。 马库斯不再写文案了。起初这让他困扰。他喜欢写作。但他更喜欢变得有价值。

第一周:找出你工作中一件如果不用花那么长时间就能做得更好的事情。客户研究?竞争分析?测试变体?数据建模?

第二周:使用 AI 代理以 10 倍的数量完成那件事,即使质量下降到 70%。看看什么成为可能。

第三周:寻找模式。在规模化下会出现哪些你手动操作时永远看不到的见解?你能回答哪些新的问题?

第四周:向你的老板推销这项新能力。不是“我现在更有效率了”。而是“我们现在可以完成以前无法完成的具体事情,这创造了具体的企业价值”。

做这件事的人并没有被挤压。他们要么被晋升,要么被挖走。因为他们让自己成为新能力的关键,而不是旧任务的执行者。

一个重要的注意事项:以目前的形式,这不会永远有效。最终,代理在编排方面也会变得更好。但它能为你争取三到五年的时间。在这段时间里,你会看到下一阶段的演变即将到来。

元技能是这样的: 学会在限制消失时发现可能发生什么 ,然后围绕这种新的可能性构建你的价值。

有人正在利用人工智能代理同时进行五十项竞选实验,以实现规模化运作

大多数所谓的战略思维实际上只是周密的思考

目前大多数从事“战略”知识工作的人实际上并不那么具有战略性。

当代理开始处理执行层面时,大家都以为人类会自然而然地上升到更高层次的思考。策略。判断。愿景。

但一个不同的现实正在浮现:许多有多年经验的高层人士实际上无法在那个层面上工作。他们的专长主要是模式匹配和流程执行,只是用战略语言包装了一下。

没人公开说出来的事情:“我们以为丽莎是一个战略思考者,因为她的分析很全面。结果发现,全面性才是她的技能。当代理能在三分钟内做到全面时,我们才发现丽莎实际上并没有战略见解可以贡献。”

这不是因为这些人不擅长自己的工作。他们曾经在自己的工作岗位上表现出色。这份工作需要勤奋、注重细节、精通流程。他们准确地完成了被要求的工作。

但行业向他们推销了经验等于战略能力的观念。他们认为投入时间自然会培养判断力。对某些人来说确实如此。对许多人来说,他们擅长执行并将其称为战略。

加拿大一家中型公司的 CEO 告诉我:“我们发现,当我们问他们应该做什么时,我们的高级员工和初级员工同样迷茫,不只是如何做。高级员工只是更善于表达他们的不确定感。”

代理经济不只是自动化任务。它揭示了谁是在战略思维的表象上漂浮,谁真正拥有它。

但告诉别人,你花了 15 年建立职业生涯,而我们现在才意识到你擅长的事情并不是我们真正需要的,这是没有温柔的方式的。

没有人公开这样说,因为这表明问题不仅仅是技术适应。问题在于我们的评估系统从一开始就出了问题。我们因为错误的原因提拔了人。我们将“工作做得好”与“对工作有战略思考”混淆了。

承认这一点意味着承认我们实际上不知道如何识别或培养真正的战略能力。我们一直在猜测。用资历和工作年限作为替代。

一个人正在仔细检查具体工作,而他的影子却暴露了他缺乏战略思维

唯一持久的策略是发现什么刚刚变得可能

你不会通过在当前工作中做得更好来解决这个问题。这份工作正在实时地消解在你的脚下。

你不会通过更好地学习工具来解决这个问题。工具会在没有你的情况下变得更易使用。

你不会通过深入你的专业领域来解决这个问题。那个专业领域正在被自动化。

有效的方法是:成为那个能发现刚刚变得可能的事情的人,并围绕这种新能力构建你的价值。使用代理来消除以前限制你能做的事情的约束。成为以前不存在的那种规模协调者。

这不是一个永久性的解决方案。三到五年后,你需要再次这样做。元技能是学会不断发现下一次的进化,并将自己定位在新可能性的边缘。

这将区分出真正具有战略眼光的人与只是力求周全的人。这是无法避免的。奖励周全性的体系正在崩溃。新的体系奖励的是能够识别刚刚消失的限制条件,并在该空间中构建新事物的能力。

你仍然有时间,但不多。代理能力与人类适应之间的速度差异是真实的。公司不会救你,因为它们优化的是短期成本削减,而非长期劳动力转型。教育体系也不会救你,因为它太慢了。

你必须自救。而你要这样做的方式是停止试图捍卫你当前的角色,开始构建六个月前还不存在的角色。

周一早晨仍会到来。问题在于,你是否仍在思考自己应该擅长什么,或者你是否已经构建了答案。

https://newsletter.jantegze.com/p/your-job-isnt-disappearing-its-shrinking

如果觉得内容不错,欢迎你点一下「在看」,或是将文章分享给其他有需要的人^^

相关好文推荐:

AI 时代的软件与软件公司应该长什么样?

意图即生产力:重新定义产品与开发的边界

Embedding Model 如何“学会”语义相似?

Embedding Model 是什么?

OpenClawd的运作原理 | Hesamation

一个使用 OpenRouter 的 1 万亿令牌实证研究 | OpenRouter AI

Moltbot(Clawdbot)做对了什么?

D4RT:教会 AI 以四个维度看世界 | DeepMind

一个月内把编码主力交给 Agent 的真实体验 | karpathy

用于线性注意力的 Gated DeltaNet | Sebastian Raschka

DeepSeek的多头潜在注意力(MLA) | Sebastian Raschka

嵌入模型检索面临严重限制 | DeepLearning.AI

理解多模态 LLM | Sebastian Raschka

这是最好的时代,也是最坏的时代

理解推理型 LLM | Sebastian Raschka

理解用于评估大语言模型(LLM)的四种主要方法 | Sebastian Raschka

从 DeepSeek V3 到 Mistral 3 Large:现代大语言模型(LLM)架构设计概览(三)| Sebastian Raschka

从 DeepSeek V3 到 Mistral 3 Large:现代大语言模型(LLM)架构设计概览(二)| Sebastian Raschka

从 DeepSeek V3 到 Mistral 3 Large:现代大语言模型(LLM)架构设计概览(一)| Sebastian Raschka

Agent 设计模式 | Lance

递归语言模型(Recursive Language Models) | Alex Zhang

重新构想 LLM 记忆:将上下文作为训练数据,使模型能够在测试时学习 | Nvidia

Manus 中的上下文工程 | Lance

引入嵌套学习(Nested Learning):一种用于持续学习的全新机器学习范式

如何构建多智能体研究系统

真正决定 AI 系统上限的是什么?

软件 2.0 | karpathy

2025年 LLM 年度回顾 | karpathy

苦涩的教训

0条留言

留言