意见领袖 正文

从天体轨道到人工智能:萨金特的“描述与解释”之问,为什么值得我们重新思考智能?

北大汇丰MBA
2026-03-18 11:23:53

意见领袖丨北大汇丰MBA

2025年12月29日,北大汇丰诺奖对话系列活动举行。2011年诺贝尔经济学奖得主、北京大学汇丰商学院萨金特数量经济与金融研究所荣誉主任托马斯·萨金特(Thomas J. Sargent)教授以“人工智能:过去、现在与未来”为题,详细讲解了AI与人类认知、科学史、经济推理之间的根本联系,探讨了AI的本质和发展脉络。300多校内外师生及各界听众现场参加,近10万人在线收看。

引言|一个古老的科学难题

几百年前,人们仰望星空,却并不真正知道行星的轨迹为何如此怪异。它们似乎并不遵循完美的圆形路径,时快时慢、忽左忽右,仿佛在对任何人类想象中的秩序进行嘲讽。

当时,托勒密的天文学体系通过堆叠一层层的圆和附加圆(即“本轮/均轮”系统),试图拟合这些复杂的运动数据。这种做法在数学上可谓精妙,足以描述观测结果的细节,却始终无法解释这些运动背后到底遵循什么规律。

在哥白尼提出日心说之后,天文学界进入了一个关键性的实验阶段。尽管日心说改变了参照系,但一个更基础的问题仍然困扰着所有观测者:行星到底是如何绕太阳运行的?它们为什么偏离圆形轨道?

这个问题最终交到了天文学家约翰内斯·开普勒手中。开普勒继承了他人收集的精确天文观测数据,长期困顿于这些“偏离圆形”的残差。直到某一刻,他提出了一个大胆的设想:行星轨道不是圆形,而是椭圆形,太阳处于椭圆的一个焦点。

这一看似只是更优拟合的数据假设,实则标志着科学史上的根本性转折。开普勒没有添加更多“曲线”,而是通过结构上的简化,触及了天体运动的真实机制。他不仅告诉我们轨迹“是什么样子”,更提示了“为什么会是这样”。

正是这个由经验数据到结构解释的跃迁,使得他的发现成为牛顿万有引力理论的基石,也成为现代科学以机制为导向的解释模式的开端。这不是一场数学游戏的胜利,而是科学方法的一次转向:从描述世界的表象,走向揭示世界的结构逻辑。

这个故事并未结束。几百年后,我们站在人工智能的时代门槛上,又一次面对一个类似的问题:当 AI 精准地识别模式、预测趋势时,我们是否真的理解了这些模式的由来?它究竟是在解释世界,还是仅仅描述数据?

诺贝尔经济学奖得主Thomas J. Sargent教授正是围绕这一问题展开了深刻讨论。讲座题为《AI: Past, Present and Future》,但讨论的内容远远超越了“过去与未来”的时间框架,而触及了智能的本质与边界。

第一部分|人工智能到底“智能”在哪?

讲座一开始,萨金特就抛出了一个朴素的问题:“我们所谓的‘智能’,究竟指的是什么?”

与其从意识、感情、主观性这些哲学概念入手,萨金特回到最具操作性的出发点:我们之所以认为某些系统是“智能的”,是因为它们表现出了一种人类式的功能性思维。换句话说,我们判断一个系统是否“智能”,标准其实是它是否能像人一样完成某些任务。

萨金特将这种“功能性智能”拆解为三项核心能力:

模式识别(Pattern Recognition)

能从纷繁的数据中识别出结构与规律。例如,看到大量历史天气数据后,总结出某地春季常伴随降雨。

泛化能力(Generalisation)

不仅识别规律,更愿意“相信”这些规律能延伸至未来。这其实是一种近乎信仰的跳跃:从“曾经发生过”推断“将会发生”。

决策(Decision Making)

在识别与泛化基础上做出行动选择。哪怕信息不完备、结果不确定,依然能基于已知结构进行决策。

这三项能力之所以重要,是因为它们正是人类得以在不确定世界中生存、适应和改造环境的基础。我们制造 AI,不是因为它与人类完全一样,而是希望它能模仿这套三层机制,并在特定领域中胜任复杂任务。

而在这个框架中,AI 的“智能”显然是有实绩可循的,尤其在前两项:它们能在超大规模的数据集中高效识别结构性关联,也能在不同场景中迅速调整算法参数,形成“近似泛化”的模型结构。

这正是为什么 AI 在图像识别、语音转换、推荐算法等领域表现出色。它们甚至在某些任务上超越了人类的直觉判断力与反应速度。

但萨金特在这里戛然而止,话锋一转:“我们需要意识到,AI的崛起,并不代表它完成了人类智能的所有组成部分。相反,它正是靠对前两项功能的极度强化,而在第三项,也就是决策背后的解释性理解,仍显局限。”

也就是说:AI 描述得越来越好,可以把世界压缩成越来越复杂而高效的模式网络,但它仍然无法真正解释它所“看见”的东西为什么是这样。

萨金特将这一能力称为“对机制的理解”,而这正是下一部分他将深入展开的主题。他提醒我们:当一个系统能够识别数据中的模式时,它可能是“智能的”;但只有当它能够理解这些模式如何被生成、如何在制度或自然法则下产生变动时,它才触碰到了真正的“解释力”。正是在这个区分上,AI 和人类智能之间的鸿沟开始显现。

第二部分|描述 vs 解释:

一个科学方法论的核心对立

在讲座中,萨金特多次强调人工智能的核心局限,不在于它“做得不够多”,而在于我们误解了它到底在做什么。他用两个关键词贯穿始终:Describe(描述)vs Explain(解释)。

“描述”指的是对已有数据的观察、总结与压缩。AI 系统,尤其是当下主流的深度学习与强化学习架构,正是擅长这件事的典范。它们可以:从图像中识别出人物、物体、情绪;从大量文本中生成合乎语法与语境的段落;在金融市场中预测趋势、捕捉高频信号。

萨金特把这类系统称为“模式压缩机器”(Pattern Compression Machines)。它们所做的是一种“看”,一种极其高效的观察与再现。

而“解释”是完全不同的事情。它不是问“接下来会发生什么”,而是问:“为什么事情会以这种方式发生?”“如果我们改变规则,结果还会一样吗?”

解释意味着你理解了生成数据的机制,能够处理反事实结构,甚至在规则改变后依然作出有根据的判断。

萨金特引用了物理学家理查德·费曼的一个著名比喻,进一步说明这个区分:“假设你从不知道国际象棋的规则,只是站在旁边观察一场又一场的棋局。你可以非常仔细地记录每一个棋子的移动,久而久之你甚至能预测某些情况下‘这个棋子很可能会这样走’。你也许能模仿一名中等水平棋手的下法——但你依然不知道规则是什么,更不知道为什么规则是这样。”

这正是 AI 当前的状态。它可以在海量棋谱中学习如何下棋,可以打败最强的人类选手(以AlphaGo为例),但它对围棋的理解,不包含“规则制定层”的认知。它没有理解“围棋为何是一种竞技,而非纯随机过程”;没有理解“厚势”意味着什么,也无法判断“风格”或“战略美学”。

AI 是那个站在棋盘边上的观察者。它可以将数据压缩得极致,但它并不真正知道“游戏的本质是什么”。

这正是萨金特所要指出的根本问题:AI的成功建立在对既定规则下的模式预测,但现实世界中,规则是不断变化的,制度、政策、激励结构每天都在被改写。真正的智能,需要能理解这些变化背后的逻辑,并在变化中重新定位自身决策。因此,萨金特反复提醒:“AI能预测某种机制下的结果,但它无法解释机制如何生成、如何变化,也无法理解反事实问题。”

从象棋到经济系统,从语言模型到政策设计,我们不能用一个擅长观察棋局的系统,来推导出整盘博弈的逻辑。

第三部分|“生成了这些走法的那盘棋”

在讲座中,萨金特不止一次提到了一个看似技术性但本质上非常深刻的比喻:“从有限的价格与数量数据出发,经济学家试图推理出那盘生成这些数据的博弈(infer the game that generated them)。”这句话背后的图景,是对“解释”与“描述”差异的进一步深化。

人类社会中的行为并不是在真空中出现的。每一次定价、交易、选择,其背后都潜藏着制度安排、权力结构、激励机制。经济学家之所以建模,并非只是为了回顾某种过去的数据趋势,而是为了理解:是什么样的“规则集合”在悄然决定人们的选择?如果这些规则被改变,个体行为与总体结构又会随之如何演变?

这是一种对“生成机制”的探查,而非仅仅复现表层行为。在这段论述前,萨金特曾简单提到 AlphaGo,将它作为观察者vs规则推理者之间差异的代表。

AlphaGo 是一个被动地学习棋局结果的系统:它通过观看数百万盘人类对局,再加上自我博弈,无比擅长在已有规则下找到“最优解”。它可以预测哪一步胜率高、哪种布局更强,但它从未试图理解“围棋为何如此”,也无法改变围棋的规则体系再提出新棋法。

相比之下,结构经济学家做的事,恰恰是反过来的。他们看到的是局部的结果数据,比如价格波动、产出变化、失业水平,然后试图以此“倒推出”一套解释这些现象的制度机制:究竟是怎样一盘博弈,才可能产生这样的均衡?

在这个意义上,萨金特的比喻与 AlphaGo 的存在形成张力:AlphaGo 精通棋局,但并不企图推导围棋的起源与合法性;而经济学家则要从不完整的信息中,构建“那盘棋”的逻辑结构。

解释意味着推演制度、想象他者、预测反事实。在现实世界中,这样的“博弈”远比围棋复杂得多:没有人公布全部规则,不同个体的目标函数不一样。激励是隐性的,制度是模糊的,数据是残缺的,行为是历史性的。但越是在这种不确定性中,我们越需要的是解释性的理解能力。也正因如此,萨金特强调:真正的智能,不是在规则既定后做出最优选择,而是在规则未明、机制未显之时,推理出“这局博弈”长什么样。

这不只是对AI能力边界的判断,也是一种对人类决策者应当具备何种理解能力的提醒。

总结|我们看到了什么?我们理解了什么?

从开普勒的椭圆轨道,到费曼的棋盘观察比喻,再到 AlphaGo的胜利,我们看到了描述能力的演化。萨金特不是否认 AI 的价值,而是警惕我们在模式识别的光环下,忽视了对解释机制的追问。未来的技术社会,需要的不只是预测准确的系统,更需要能处理不确定性、评估因果链条、思考反事实结构的人类智能。

在讲座的尾声,当被问及“人工智能是否终将取代人类”时,萨金特微笑着摇了摇头。他并没有引用技术报告或概率模型,而是说:“AI 永远不会像我妻子那样,总能让我微笑。”

这句轻松而温柔的回答,背后其实隐含了他整场讲座最温和而最深刻的立场:AI 是工具,而不是命运的接管者;理解机制、生成意义、塑造选择的能力,仍然属于人类。

在这场讲座中,萨金特并不是在“警告”AI的局限,而是在提醒我们人类本身也带着天然的局限性。他引用了认知科学家 Steven Pinker 的《The Blank Slate》一书,指出我们作为进化自狩猎采集社会的生物,本能地倾向于某些简单启发式:例如高估熟悉事件、误判低频风险、喜欢因果故事而非统计事实。这些“认知缺陷”是演化留下的痕迹,而萨金特认为,现代教育的意义,正是在于对这种认知遗产的修正与补充。

所以,Pinker 推荐年轻人去学习统计学、经济学、生物学、物理学,因为这些学科就是人类发明出来、用来抵抗自己直觉偏误的系统性工具。

萨金特在此没有展开过多技术细节,而是把落点放在一个简单、却有力的建议上:“我们不知道未来会怎样,但我们知道自己应该尽量变得更灵活。”

Be flexible.这是一句听起来几乎过于朴素的劝告,但对坐在讲堂里的听众,尤其是正在PHBS接受经济、统计、政策、管理等跨学科训练的学生而言,它恰好点出了这些训练的本质:是不断训练系统思维,来弥补本能判断的缺陷、是在学习从“价格与数量”背后推理出“那盘博弈”,也是在努力从有限的经验中构建出尽可能强健的解释力。

也许这正是像北大汇丰这样注重方法论与多学科视野的商学院所希望赋予学生的能力:不仅拥有预测趋势的前沿工具,也拥有理解复杂世界的耐心。

在这个意义上,萨金特不是在讲一个“AI的未来”,而是在讲一个属于人类认知转型的未来。而在这个未来里,解释仍然重要,判断仍然重要,人类仍然不可替代。

(本文作者介绍:中国顶尖MBA项目,致力于培养国际一流的商界领袖。)

分享文章到
说说你的看法...
A-
A+