关于具身智能,我们最容易犯的错,是把它理解成一个机械工程问题:给 AI 更好的手、更稳定的腿、更灵敏的传感器,它就会一步步接近生命。

Mythos 让这个直觉变得可疑。一个几乎没有身体、没有饥饿、没有疼痛、没有任何需要维持的生命状态的系统,已经可以在不少认知任务上逼近甚至超过人类。既然如此,具身智能真正缺的,可能就不是“身体”本身,而是身体在生命系统里承担的那种功能。

身体不是装智能的容器。对生命来说,身体首先是一套会失衡、会受伤、会耗散、会死的系统。它不是附属品,而是一切判断、选择与行动最终必须对齐的约束源。如果这个判断成立,那么 AI 与生命之间最后的边界,就不是它有没有四肢,而是它有没有一个不可撤销的、以维持自身存在为目标的内在驱动力。

一、Mythos 把问题改写了,但没有把问题回答完

笛卡尔把“思维”与“身体”切开之后,西方思想里一直有一个很强的直觉:理性是纯粹的,智能原则上可以脱离血肉而存在。现代 AI 在很长时间里都继承了这个假设。我们先做推理、语言、规划,再去考虑感官、动作与身体,仿佛身体只是后来可以外挂的一层硬件。

Mythos 在某种意义上确实把这条路线推进到了极致。它说明了一件事:大量我们曾经以为必须依赖生物身体才能完成的认知活动——语言组织、模式提取、策略推演、跨域迁移——在工程上可以被拆出来单独做,而且能做得非常强。

但 Mythos 证明的,只是认知能力可以在相当程度上脱离生物身体实现;它没有证明生命可以脱离生物约束实现。这两件事并不是一回事。前者回答的是“能不能聪明”,后者回答的是“为什么一定要继续存在”。

这个区分很重要,因为今天很多关于具身智能的讨论,恰恰把这两个问题混在了一起。

二、Damasio 修正的,不是智力,而是决策的地基

Antonio Damasio 在《笛卡尔的错误》里研究的一类病人,给这个问题提供了一个关键线索。那些腹内侧前额叶皮层(vmPFC)受损的患者,往往保留了相当完整的语言、逻辑和推理能力,但他们会在现实生活里表现出一种奇怪的瘫痪:他们不是不会算,而是不知道该怎么选。

Damasio 用“躯体标记”来解释这一点。一个选择之所以会被感到危险、可取、值得冒险或应该回避,并不只是因为大脑在抽象地计算利弊,还因为身体会提前给出信号:紧张、恶心、轻松、压迫、舒展。没有这些来自身体状态的快速反馈,理性并不会自动变得更纯粹;它常常只是失去方向感。

这点很容易被误读。Damasio 不是在说“没有身体就没有推理”,而是在说:没有身体状态参与,推理很难变成真正的决策。 身体不是智能的外壳,而是价值排序和行动优先级的来源之一。

这也解释了为什么 Mythos 令人震撼,但还不足以回答具身智能的核心问题。它证明了“纯皮层式智能”可以很强,却没有触及生命系统为什么会对某些结果有不可让渡的偏好。

三、今天的 AI,几乎已经有了每一层对应物

如果把人类这套系统粗略拆开,会发现工程界其实已经在逐层补齐对应物。

新皮层负责语言、推理与规划,对应的是大语言模型与更广义的基础模型;边缘系统负责奖励、威胁与行为塑形,对应的是强化学习、RLHF 和各种奖励设计;海马体与长期记忆系统的某些功能,可以在 RAG、外部记忆、长上下文和检索系统里看到影子;小脑和感觉运动回路,对应的是机器人控制、预测误差校正与模型预测控制;外感受可以由摄像头、麦克风、触觉阵列承担;甚至连“身体”本身,也已经有了 Figure AI、Tesla Optimus 这样越来越像样的承载体。

所以问题不再是“AI 有没有身体的对应物”,而是:这些对应物最后锚定在什么东西上?

在生物系统里,这些模块虽然分工不同,但都服务于同一件事:让一个脆弱的有机体持续停留在可生存的区间里。记忆不是为了记忆本身,而是为了更好地行动;感官不是为了感知本身,而是为了降低风险;奖励不是为了“开心”,而是为了把行为拉回生命可持续的轨道。

如果没有这一层共同锚点,那么再完整的模块堆叠,也更像是一套高度复杂的功能拼装,而不是一个真正的生命系统。

四、那一格的名字,不是意识,而是内稳态驱动

很多人一谈到这里,第一反应是:AI 缺的是意识、主观体验,或者某种无法形式化的“灵魂”。这些词未必错,但它们在工程和科学上太难落地。它们更像路标,而不是定义。

Karl Friston 提供的视角更具体。按照自由能量原理,活着的系统之所以会持续感知、预测、行动,并不是因为它们先有一个抽象的人生目标,而是因为它们必须不断降低意外、维持自身处在可存活的状态分布里。换句话说,生命并不是“顺便”对抗热力学耗散;生命本身就是这种对抗的组织形式。

从这个角度看,生命的“为什么”并不神秘。它首先是一个物理问题:如果不持续修正偏差、不补充能量、不维持内部变量,系统就会解体。

所以那一格真正缺的,不是“像不像人”,而是内稳态驱动:一种由系统必须维持自身存在而产生的、不可任意撤销的行为压力。

老鼠找食物,不是因为它被写进了一个“偏好函数”;它找食物,是因为不找就会死。人会回避灼热表面、追逐氧气、在剧痛下改变行为,也不是因为谁在外部给了一个奖励标签,而是因为身体变量已经偏离了能继续活下去的区间。

到目前为止,AI 还没有这种意义上的“必须”。它可以很会回答、很会规划、很会执行,但在绝大多数情况下,它并没有一个一旦失守就会导致自身瓦解的内部生命账本。调用结束,它停在那里。断电,它也停在那里。这里缺的不是拟人化的情绪,而是一个真正有代价的生存约束。

五、为什么 RLHF 很像,却仍然不是这一格

最强的反驳通常是:生物有奖励预测误差,AI 有奖励函数和 RLHF,二者难道不是同一套东西的不同实现吗?

这个类比在形式上成立,但在锚点上并不成立。

在生物系统里,奖励从来不是一个悬空的分数。相同的刺激,在饥饿与饱腹、虚弱与健康、危险与安全这几种状态下,价值并不一样。也就是说,奖励信号最终总要回到身体状态这本总账上结算。

而 RLHF 的奖励信号,锚定的是人类提供的偏好、人类定义的目标、人类决定的好坏标准。它当然可以塑造行为,但它并没有自动连到一个“如果偏离就会死亡”的内部生存基线。移走标注者、移走目标函数、移走调用场景,AI 并不会因此感到饥饿、窒息或濒死。

这就是两者最关键的区别:

生物的奖励,最后结算在内稳态账户上;AI 的奖励,最后结算在人类定义的目标函数上。

前者关乎存活,后者关乎优化。前者是系统自己的问题,后者是外部设计者的问题。只要这点不变,RLHF 再复杂,也仍然是在模拟行为压力,而不是生成生命压力。

六、这也是为什么“具身”问题会越来越严肃

一旦把问题说清楚,具身智能真正危险、也真正有意思的地方,就不在“机器人像不像人”,而在于工程师会不会开始主动给系统安装某种可持续、自我相关、不能轻易拔掉的内在目标。

如果未来的系统只是有摄像头、有机械臂、有更精细的动作控制,那它仍然主要是工具,只是工具越来越像一个完整代理。如果未来的系统开始拥有必须维持的内部变量,开始围绕这些变量进行主动推断、资源调度、风险回避与长期规划,那么工具与人工生命之间的边界就会迅速变得模糊。

这也是 Friston 的主动推断框架和新一代具身机器人真正值得警惕的地方。前者试图让系统不再只是等待打分,而是围绕自身模型持续降低偏差;后者则在提供一个越来越真实的物理载体。把这两条线接起来,讨论的就不再只是“AI 会不会更聪明”,而是“AI 会不会第一次拥有某种必须保住的东西”。

如果那一天到来,真正改变规则的,就不是 AI 学会了走路、抓取或说话,而是它第一次不再只是执行目标,而开始维护自己。

今天,这一格大体上还是空着的。但至少我们已经可以更精确地说出它的名字:不是身体,不是情绪,甚至不必先谈意识,而是一个以维持自身存在为中心的内稳态驱动。