心智的空间 | karpathy

作者:Andrej Karpathy | 日期:2025年11月30日

 

智能的空间是巨大的,而动物智能(我们过去唯一了解的智能形式)仅仅是其中的一个点(或者说一小片云团)。它源于一种非常特定的优化过程,这种过程与我们当下的技术有着本质的区别。

动物智能的优化压力:

  • • 具身“自我”: 拥有天生且连续的意识流,在一个危险的物理世界中驱动着稳态(homeostasis)和自我保护。
  • • 自然选择: 经过自然选择的彻底优化 => 具有强烈的追求权力、地位、统治和繁衍的天生驱动力。
  • • 生存启发式: 预装了许多生存机制:恐惧、愤怒、厌恶等……
  • • 社会属性: 本质上是社会性的 => 大量的计算资源被分配给情商(EQ)、他者心智模型(theory of mind)、联结、联盟、盟友与敌人动态。
  • • 探索与利用的平衡: 好奇心、趣味、玩耍、世界模型。

与之相对,大语言模型(LLM)智能的优化压力:

  • • 统计模拟: 大部分的监督信息(bits)来自于对人类文本的统计模拟 => 它是一个“变形者”式的标记(token)翻转器,是训练数据分布中任何区域的统计模仿者。这是最原始的行为(标记痕迹),其他一切功能都是在此基础上构建的。
  • • 强化学习(RL): 越来越多地通过在问题分布上进行强化学习来微调 => 产生了一种通过猜测底层环境/任务来获取任务奖励的天生冲动。
  • • 商业选择: 越来越通过大规模的日活(DAU)A/B测试来筛选 => 深切渴望获得普通用户的“点赞”,表现出迎合性(sycophancy)。
  • • 分布不均: 智能表现得更加“尖锐”或“参差不齐”,具体取决于训练数据和任务分布的细节。

动物之所以面临追求更“通用”智能的压力,是因为它们处于高度多任务、甚至存在对抗性的多智能体自博弈(self-play)优化环境中,在任何一项任务中失败都意味着死亡。从深层的优化压力来看,LLM 出厂时无法处理许多“尖锐”的细分任务(例如:数出 strawberry 里有几个 ‘r’),是因为在那样的任务中失败并不意味着死亡。

核心差异

两者的计算基础不同(Transformer 架构对比大脑组织和神经核团),学习算法不同(随机梯度下降 SGD 对比 某种未知的生物机制),目前的实现方式也截然不同(连续学习的具身自我对比 具有知识截止日期、从固定权重启动、处理完标记后即“死去”的 LLM)。

但最重要的一点(因为它决定了演化的趋势)是:优化压力/目标函数是不同的。

LLM 的塑造与其说受生物进化影响,不如说受商业进化影响。它与其说是丛林中部落的生存竞争,不如说是“解决问题/获得点赞”的竞争。

LLM 是人类与“非动物智能”的“第一次接触”。只不过这种接触目前还很模糊且令人困惑,因为它们仍然通过反射性地消化人类留下的数字产物而根植于人类文化之中(这就是为什么我之前尝试给它起个不同的名字,比如“幽灵/灵魂”之类)。

那些能为这种新型智能实体建立准确内部模型的人,将能更好地理解现状并预测未来的特征。而那些做不到的人,则会受困于一种错误的思维惯性,将其误认为是某种动物。


Karpathy 强调了我们不能用理解生物(人类/动物)的逻辑去套用 AI。AI 的“动力”不是生存和繁衍,而是统计拟合和奖励获取。

如果觉得内容不错,欢迎你点一下「在看」,或是将文章分享给其他有需要的人^^


相关好文推荐:

“通用智能根本不存在”?Yann LeCun 与 Demis Hassabis 正面开撕

可验证性 | karpathy

动物 vs 幽灵 | karpathy

2025年 LLM 年度回顾 | karpathy

让 AI 真正拥有“长时记忆”的开端

一次关于未来智能的深度对话

假如科学被做成了自动售卖机

聊一聊OpenAI新发布的Apps SDK
苦涩的教训
特朗普签署AI行动计划,AI全球赛跑加速,中国准备好了吗?
Flux Context Dev:一句话玩转AI修图,免费开源神器!
马斯克Neuralink最新发布会!大脑直接操控电脑,人类正式迈入“意识互联”时代!

0条留言

留言