心智的空间 | karpathy
作者:Andrej Karpathy | 日期:2025年11月30日
智能的空间是巨大的,而动物智能(我们过去唯一了解的智能形式)仅仅是其中的一个点(或者说一小片云团)。它源于一种非常特定的优化过程,这种过程与我们当下的技术有着本质的区别。
动物智能的优化压力:
-
• 具身“自我”: 拥有天生且连续的意识流,在一个危险的物理世界中驱动着稳态(homeostasis)和自我保护。 -
• 自然选择: 经过自然选择的彻底优化 => 具有强烈的追求权力、地位、统治和繁衍的天生驱动力。 -
• 生存启发式: 预装了许多生存机制:恐惧、愤怒、厌恶等…… -
• 社会属性: 本质上是社会性的 => 大量的计算资源被分配给情商(EQ)、他者心智模型(theory of mind)、联结、联盟、盟友与敌人动态。 -
• 探索与利用的平衡: 好奇心、趣味、玩耍、世界模型。
与之相对,大语言模型(LLM)智能的优化压力:
-
• 统计模拟: 大部分的监督信息(bits)来自于对人类文本的统计模拟 => 它是一个“变形者”式的标记(token)翻转器,是训练数据分布中任何区域的统计模仿者。这是最原始的行为(标记痕迹),其他一切功能都是在此基础上构建的。 -
• 强化学习(RL): 越来越多地通过在问题分布上进行强化学习来微调 => 产生了一种通过猜测底层环境/任务来获取任务奖励的天生冲动。 -
• 商业选择: 越来越通过大规模的日活(DAU)A/B测试来筛选 => 深切渴望获得普通用户的“点赞”,表现出迎合性(sycophancy)。 -
• 分布不均: 智能表现得更加“尖锐”或“参差不齐”,具体取决于训练数据和任务分布的细节。
动物之所以面临追求更“通用”智能的压力,是因为它们处于高度多任务、甚至存在对抗性的多智能体自博弈(self-play)优化环境中,在任何一项任务中失败都意味着死亡。从深层的优化压力来看,LLM 出厂时无法处理许多“尖锐”的细分任务(例如:数出 strawberry 里有几个 ‘r’),是因为在那样的任务中失败并不意味着死亡。
核心差异
两者的计算基础不同(Transformer 架构对比大脑组织和神经核团),学习算法不同(随机梯度下降 SGD 对比 某种未知的生物机制),目前的实现方式也截然不同(连续学习的具身自我对比 具有知识截止日期、从固定权重启动、处理完标记后即“死去”的 LLM)。
但最重要的一点(因为它决定了演化的趋势)是:优化压力/目标函数是不同的。
LLM 的塑造与其说受生物进化影响,不如说受商业进化影响。它与其说是丛林中部落的生存竞争,不如说是“解决问题/获得点赞”的竞争。
LLM 是人类与“非动物智能”的“第一次接触”。只不过这种接触目前还很模糊且令人困惑,因为它们仍然通过反射性地消化人类留下的数字产物而根植于人类文化之中(这就是为什么我之前尝试给它起个不同的名字,比如“幽灵/灵魂”之类)。
那些能为这种新型智能实体建立准确内部模型的人,将能更好地理解现状并预测未来的特征。而那些做不到的人,则会受困于一种错误的思维惯性,将其误认为是某种动物。
Karpathy 强调了我们不能用理解生物(人类/动物)的逻辑去套用 AI。AI 的“动力”不是生存和繁衍,而是统计拟合和奖励获取。
如果觉得内容不错,欢迎你点一下「在看」,或是将文章分享给其他有需要的人^^
相关好文推荐:
“通用智能根本不存在”?Yann LeCun 与 Demis Hassabis 正面开撕

0条留言