新智元报道
编辑:倾倾
【新智元导读】高分模型未必懂科学,有的只是在「死记硬背」!MIT揭秘:模型越聪明,对物质的理解就越趋同。既然真理路径已清晰,我们何必再深陷昂贵的算力竞赛?
现在的AI for Science,就像一场「多国峰会」,大家用不同的语言描述同一件事。
有人让AI读SMILES字符串,有人给AI看原子的3D坐标,大在不同的赛道上比谁预测得准。
但有一个问题:这些AI是在「找规律」,还是真的理解了背后的物理真相?
在MIT的一项研究中,研究员把59个「出身」不同的模型凑在一起,观察它们在理解物质时,隐藏层表达是否相同 。
论文链接:https://arxiv.org/abs/2512.03750
结果非常惊人:虽然这些模型看数据的方式天差地别,但只要它们变得足够强大,它们对物质的理解就会变得极度相似 。
更神奇的是,一个读文字的代码模型,竟然能和一个算受力的物理模型在「认知」上高度对齐 。
它们沿着不同的路,爬到了同一座山峰的顶端,开始共同描绘物理与现实的「终极地图」。
真理的汇合:为什么顶尖模型越长越像?
为了验证这些模型是否真的在靠近真理,研究者引入了一个关键指标:表征对齐度。
简单来说,就是看两个模型在处理同一个分子时,它们脑子里的思路有多相似。
结果发现,性能越强的模型,思维方式就越接近。
在实验中,随着模型预测物质能量准确度的提升,这些模型在表达空间里会自发地向同一个方向靠拢。
性能与认知的同步:能量预测越精准,模型与顶尖基座的思维方式就越趋同。每个点代表一个模型;点大小对应模型大小。
尽管这些AI的架构千差万别,但它们在处理同一批分子数据时,其特征空间的复杂度竟然压缩到了一个非常窄的范围。
无论模型外壳多么复杂,它们最后抓取的都是最核心、最精简的物理信息 。
化繁为简:虽然AI架构各异,但它们提取的物质特征在数学复杂度上却「殊途同归」。
这一特征在Orb V3这样的模型上更加明显。
跨架构的表征对齐:矩阵中的深色区域显示了Orb V3等高性能模型与其它严谨物理模型(如MACE、EqV2)之间强烈的共鸣。
通过更自由的训练,它们可以更精准地对齐物理规律。
这也说明,当喂给AI的数据足够多、训练方式足够对路,它甚至能越过人类现有的公式,自己摸索出物质运行的本质规律。
这种收敛现象表明,AI并没有胡思乱想,它们正在合力挖掘物质世界那个唯一、真实、且客观的底层逻辑 。
不止分子,连「猫」都一样!
你以为这种「英雄所见略同」只发生在科学AI里?大错特错!
有研究者把纯文本的语言模型(比如GPT系列)和纯图像的视觉模型(比如CLIP或DALL·E背后的模型)拉出来比对,结果发现,它们对「猫」的理解,竟然越来越像!
在语言模型里,「猫」的向量表示会紧紧靠近「毛茸茸」「喵喵叫」「宠物」「抓老鼠」这些词。
在视觉模型里,「猫」的向量则靠近胡须、圆眼睛、软毛、优雅的尾巴等视觉特征。
本来两个模型一个只看文字、一个只看图片,压根没交集。
但模型规模越大、性能越强,这两个完全不同模态的「猫」表示,就在线性空间里越靠越近,仿佛在共享同一个「猫的本质」!
这意味着AI不管从文字、图像、分子结构还是3D坐标切入,只要足够强大,就会在内部悄悄趋向同一个对现实的「内在图景」。
高分不是真理,警惕「迷路」的AI
高性能模型都在山顶汇合,那剩下的模型都在干什么?
研究者发现,性能不佳的模型有两种「死法」:一种是各想各的,在错误的道路上渐行渐远;另一种则是集体变笨,虽然想的一样,但都漏掉了关键信息。
有些模型虽然跑分不错,但思维方式却非常孤僻。
比如MACE-OFF,它在处理某些分子任务时表现很强,但它的表征对齐度却极低,完全不能融入主流高性能模型。
它可能只是在特定领域里找到了某种规律,一旦跨出这个舒适区,它的经验就很难转移到其他科学任务上。
图中白色的点代表模型从未见过的分子结构。可以看到,模型在处理这些结构时误差(MAE)激增,且表征完全偏离了正常的物理分布。
而当AI遇到训练数据里从未出现过的物质时,它们往往会放弃思考,一起摆烂,或者集体走进算法设计者留下的「舒适区」,丢掉了物质最核心的化学特征。
由此可见,训练数据不仅仅是模型的养料,更是决定模型能否触碰真理的基础。
如果数据不够多样,哪怕模型的架构再精妙,也终究只是在原地踏步,无法进化成真正的通用基座模型。
真理唯一,我们离算力自由还有多远
既然实验已经证明,不同的AI都在向同一种物理理解靠拢,那我们还有必要堆昂贵的显卡,从头训练一个超级大模型吗?
很显然,没有。而且AI已经替我们找到了一条捷径——「模型蒸馏」。
研究发现,规模较小的模型,通过模仿那些高性能基座模型的「思维方式」,也能表现出惊人的潜力。
我们不再需要盲目追求参数量的堆砌,而是利用「真理收敛」的特性,把大模型的知识复刻到更轻量、更高效的小模型身上。
图中圆点的大小代表模型参数量。可以看到,即使是较小的模型,只要其表征能与最佳性能模型对齐,同样能在分子能量预测任务中获得极高的准确度。
这对未来模型的开发具有深远的意义。
Orb V3向我们展示了「苦涩的教训」的另一种解法:通过大规模训练和聪明的正则化手段,简单的架构同样能学到那些昂贵的、强加物理限制的模型才有的理解力 。
多元架构的对比(部分):论文评估了包括Orb、MACE、DeepSeek在内的近60种模型,为科学家的选择提供了定量依据。
在未来,评估一个科学AI的标准将变得更加多元。我们不仅看它当下的「考分」,更要看它是否踏入了「真理的收敛圈」。
一旦我们掌握了这种对齐的逻辑,科学发现将不仅是巨头们的算力竞赛,更多轻量级、针对特定场景的AI将如雨后春笋般涌现,真正实现「算力自由」下的创新爆发。
MIT的研究给狂热的AI竞赛浇了一盆冷水,但也指了一条明路。
科学AI的进阶之路,不再是更复杂的架构,也不是更漂亮的物理公式,而是看谁能更稳地进入那个「收敛圈」。
我们不需要沉默算力竞赛,因为真理的路径已经清晰——所有聪明的模型都在往一处跑,那么通过「表征对齐」来实现模型的轻量化和知识迁移,就成了最务实的工程方案。
未来的科学,将属于那些懂得利用收敛性来降低成本的人。
参考资料:
https://the-decoder.com/scientific-ai-models-trained-on-different-data-are-learning-the-same-internal-picture-of-matter-study-finds/
https://arxiv.org/abs/2512.03750
https://www.quantamagazine.org/distinct-ai-models-seem-to-converge-on-how-they-encode-reality-20260107/
秒追ASI
⭐点赞、转发、在看一键三连⭐
点亮星标,锁定新智元极速推送!