AI没让你变轻松反而让你“脑烧焦”了?

程序员Steve Yegge曾推出一个名为Gas Town的平台,可以让用户同时指挥成群的AI智能体以极快的速度编写软件。

虽然结果令人惊叹,但早期用户却反映这种体验让人感到眩晕和压力,因为AI的运行速度快到了人类无法理解的程度。

这揭示了一个日益严重的矛盾:AI本应作为效率放大器让工作变轻松,但很多员工却发现它反而强化了工作的强度。

许多企业为了追求效率,开始将监控AI产生的代码行数或Token消耗量作为考核指标。

随着员工需要在越来越多的AI工具之间来回切换,原本用来专注深耕的时间被永无止境的多任务处理所取代。

哈佛商业评论的一项针对1488名全职员工的研究发现,这种由于高强度监督AI而导致的认知疲惫是真实存在的。

什么是AI大脑过载

研究人员将其定义为“AI Brain Fry”,即AI大脑过载,指过度使用或监督AI工具超出了个人的认知能力上限。

受访者描述这种感觉就像是大脑在“发嗡”或处于一种“精神迷雾”中,伴随着注意力难以集中、决策变慢和头疼。

这种精神压力会导致员工错误率增加、决策疲劳,甚至产生离职的念头。

即便员工身体并不觉得累,但大脑却像开了几十个浏览器标签页一样拥挤。

三个工具是生产力的天花板

研究发现,员工同时使用的AI工具数量与生产力之间存在一种微妙的关系。

当员工从使用一个AI工具增加到两个时,生产力会显著提升。

增加到第三个工具时,生产力虽然还在提高,但增速已经开始放缓。

而一旦同时使用超过三个AI工具,生产力评分就会出现下滑。

人工智能工具使用多少才算过多?这张折线图显示了员工自评的生产力,他们被问及人工智能工具是否提高了他们的整体工作效率,而生产力则取决于同时使用的工具数量。在1(非常不同意)到5(非常同意)的评分标准下,生产力从使用一个工具时的3.3分提高到使用两个工具时的3.8分。使用三个工具时生产力达到峰值4.1分,然后下降到使用四个或更多工具时的3.7分。数据来源:波士顿咨询集团对1488名美国全职员工的调查,2026年1月。

多任务处理的诱惑虽然巨大,但它在AI时代依然是一个效率陷阱。

减负还是增负:AI的双面性

有趣的是,AI并不总是导致疲劳,它其实是一把双刃剑。

研究显示,当AI被用来代替重复性、枯燥的常规任务时,员工的职业倦怠感会降低15%。

这种“减负”让员工有更多时间从事创造性工作,从而提高工作的积极性和社交连接感。

然而,如果AI需要员工进行高强度的“监督”和“审核”,情况就会反转。

那些需要高度监督AI工作的员工,在工作中付出的心理努力要高出14%,信息过载感也更强。

哪些职能部门的员工最常报告出现人工智能“脑疲劳”?这张柱状图展示了十几个行业岗位的员工报告的人工智能“脑疲劳”情况。人工智能“脑疲劳”被定义为“因过度使用、交互和/或监管超出自身认知能力的人工智能工具而导致的精神疲劳”。报告人工智能“脑疲劳”情况最普遍的岗位包括市场营销(26%)、人力资源(19%)、运营(18%)、工程(18%)和财务(17%)。报告人工智能“脑疲劳”情况最少的岗位包括产品管理(9%)、管理/领导(9%)和法律/合规(6%)。数据来源:波士顿咨询集团对1488名美国全职员工的调查,2026年1月

大脑过载给企业带来的隐形成本

AI大脑过载不仅仅是一种不舒服的感觉,它还会给企业带来实质性的经济损失。

首先是决策疲劳,经历AI过载的员工在决策质量上会大打折扣。

其次是错误率的飙升,调研显示,处于过载状态的员工在处理重大错误时的频率比普通员工高出39%。

最让企业头疼的是人才流失,在感到AI过载的员工中,有34%的人表现出了明确的离职意向。

这意味着公司里那些最积极使用AI的“超级明星”人才,反而可能是最先崩溃并离开的人。

管理者该如何应对AI过载

为了避免员工被AI“烧干”大脑,企业和管理者需要采取积极的干预措施。

首先要重新设计人机协作的职责,不能简单地将AI监督任务叠加在原有工作之上。

就像管理人类下属有跨度限制一样,一个人能同时监督的AI智能体也应该有上限。

管理者应提供明确的AI策略和培训,而不是让员工自己摸索。

研究发现,如果管理者能耐心解答AI相关问题,员工的心理疲劳度会降低15%。

最后,企业需要将考核指标从“使用频率”转向“实际产出”,避免为了用AI而用AI。

https://hbr.org/2026/03/when-using-ai-leads-to-brain-fry

如果觉得内容不错,欢迎你点一下「在看」,或是将文章分享给其他有需要的人^^

相关好文推荐:

飞书会取代微信吗?

通过元学习Agent记忆设计学习如何持续学习 | Yiming Xiong

超越 RAG 以实现智能体记忆:通过解耦和聚合进行检索 | ICML

你的工作不会消失,它只是不断在你身边逐渐萎缩 | Jan Tegze

AI 时代的软件与软件公司应该长什么样?

意图即生产力:重新定义产品与开发的边界

Embedding Model 如何“学会”语义相似?

Embedding Model 是什么?

OpenClawd的运作原理 | Hesamation

一个使用 OpenRouter 的 1 万亿令牌实证研究 | OpenRouter AI

Moltbot(Clawdbot)做对了什么?

一个月内把编码主力交给 Agent 的真实体验 | karpathy

从 DeepSeek V3 到 Mistral 3 Large:现代大语言模型(LLM)架构设计概览(三)| Sebastian Raschka

从 DeepSeek V3 到 Mistral 3 Large:现代大语言模型(LLM)架构设计概览(二)| Sebastian Raschka

从 DeepSeek V3 到 Mistral 3 Large:现代大语言模型(LLM)架构设计概览(一)| Sebastian Raschka

Agent 设计模式 | Lance

递归语言模型(Recursive Language Models) | Alex Zhang

Manus 中的上下文工程 | Lance

引入嵌套学习(Nested Learning):一种用于持续学习的全新机器学习范式

如何构建多智能体研究系统

0条留言

留言