首页 十大品牌文章正文

AI能否重现牛顿的洞察?新基准测试揭示大模型发现定律的真实水平

十大品牌 2025年10月15日 19:40 0 aa
AI能否重现牛顿的洞察?新基准测试揭示大模型发现定律的真实水平

当前最先进的人工智能系统能否像历史上的伟大科学家一样发现自然规律?这个问题不再停留在理论推测阶段。香港科技大学与英伟达的研究团队近日发布了一项突破性评估工具NewtonBench,专门测试大语言模型在科学定律发现方面的真实能力。测试结果显示,即使是目前性能最强的AI系统,在复杂的科学探索任务中仍表现出显著局限性,这为理解人工智能在科学发现中的角色提供了重要洞察。该研究不仅回答了AI领域学者何恺明提出的经典问题——"现代大模型能否在牛顿时代独立发现物理定律",更揭示了当前AI系统在科学推理方面的根本性挑战。

传统的AI科学能力评估面临两个核心问题:数据泄漏和环境局限。由于现有物理定律广泛存在于大模型的训练数据中,直接测试这些已知定律的发现能力无法真正反映模型的原创推理水平。同时,现有评估方法通常依赖静态数据表格进行等式归纳,这与真实科研中通过设计实验、获取数据、迭代假设的动态过程存在根本差异。

AI能否重现牛顿的洞察?新基准测试揭示大模型发现定律的真实水平

NewtonBench通过创新的"形而上学变换"方法巧妙解决了这些问题。研究团队以真实物理定律为基础,通过系统性的等式变换操作生成全新的衍生定律,确保这些变换后的定律不存在于任何训练语料中。这种方法覆盖了力学、电磁学、热力学等12个物理领域的324个发现任务,并根据变换复杂度将任务划分为简单、中等、困难三个级别。

更重要的是,NewtonBench为每个物理定律提供了沙盒化的实验环境。AI系统可以通过函数调用机制自主设定实验参数,执行不同复杂度的实验任务,并从环境中获取动态反馈数据。在简单实验环境中,输入输出参数直接对应目标定律的表达形式,接近理想的符号回归场景。而在复杂环境中,目标定律仅隐含于部分实验数据中,要求AI系统具备更强的抽象思维和推理能力。

顶级AI系统的表现差异

AI能否重现牛顿的洞察?新基准测试揭示大模型发现定律的真实水平

研究团队对11个前沿大语言模型进行了系统评测,包括GPT-5、Gemini-2.5-Pro、DeepSeek-R1和Qwen-3-235B等业界领先系统。评估结果揭示了AI能力谱系中的显著分化现象。

非推理模型在科学定律发现任务中表现普遍不佳。即使在最简单的实验设定下,这些模型的符号准确率也仅处于20%-50%的区间,远未达到实用水平。这表明缺乏专门推理优化的AI系统难以胜任需要深度逻辑推演的科学发现任务。

AI能否重现牛顿的洞察?新基准测试揭示大模型发现定律的真实水平

相比之下,专门优化的推理模型展现出质的飞跃。GPT-5和DeepSeek-R1等系统凭借强大的复杂推理与数学运算能力,在简单场景下的符号准确率普遍突破80%,证明了推理能力对于科学定律发现的关键作用。

然而,随着任务复杂度的提升,推理模型间的性能差距迅速扩大。在最具挑战性的"困难定律+复杂实验"场景下,性能最优的GPT-5和Gemini-2.5-Pro的定律发现准确率分别仅为29.9%和13.9%,而其他模型的准确率均低于5%。这一结果充分说明,即使是当前最先进的AI系统,在面对需要深度科学洞察的复杂任务时仍存在显著局限。

AI能否重现牛顿的洞察?新基准测试揭示大模型发现定律的真实水平

研究还发现了一个意外但重要的现象:代码执行工具的辅助效果呈现显著的分化特征。对于基础能力较弱的模型,代码工具能够带来显著的性能提升,帮助它们突破计算瓶颈。然而,对于已经具备强大推理能力的高性能模型,代码辅助反而产生了负面效应。

工具依赖的认知陷阱

AI能否重现牛顿的洞察?新基准测试揭示大模型发现定律的真实水平

为了深入理解这一看似矛盾的现象,研究团队进行了详细的归因分析。通过控制代码调用权限数量的对比实验,研究者发现当高性能模型获得代码工具权限时,准确率出现了显著下滑。

进一步的文本分析揭示了问题的根源。研究团队统计了模型决策过程中探索和利用相关关键词的出现频率,发现性能下滑的模型在使用代码后,探索类词汇的出现频率急剧下降。这表明代码工具的引入导致了推理范式的根本性转变——从开放性探索转向对工具的过度依赖。

AI能否重现牛顿的洞察?新基准测试揭示大模型发现定律的真实水平

具体分析显示,在较弱的GPT-4.1模型中,45.4%的代码调用集中于数值计算环节,有效弥补了其计算能力的不足。而在强大的GPT-5-Mini中,69.4%的代码资源被投入函数拟合过程,导致模型倾向于快速获取局部最优解,而非进行全面的探索以寻找全局最优的物理定律。

这一发现具有深远的理论和实践意义。它表明当前AI系统在工具使用方面缺乏适应性策略,无法根据自身能力水平和任务需求动态调整工具依赖程度。对于科学发现这样需要创造性思维和全局优化的任务,过度的工具依赖可能成为认知发展的障碍。

NewtonBench的评测结果系统性地揭示了当前大模型科学发现能力的核心瓶颈。虽然前沿推理模型能够在预设场景中推演已知定律的变体,但其泛化能力在面对复杂物理定律和实验环境时呈现系统性衰减。这种局限不仅体现在绝对性能水平上,更重要的是暴露了AI系统在科学思维模式上的根本缺陷。

真正的科学发现需要结合直觉洞察、假设生成、实验设计和理论验证等多个认知层面。当前AI系统虽然在数学计算和模式识别方面表现出色,但在需要跨领域知识整合和创造性假设生成的任务中仍显不足。特别是在面对不确定性和开放性问题时,AI系统往往倾向于寻找快速但局部的解决方案,而非进行深入的全局探索。

这些发现为未来AI系统的发展指明了重要方向。研究者指出,下一代具备科学发现能力的AI系统需要构建能够动态平衡探索与利用的认知架构。这不仅要求在算法层面进行创新,更需要在系统设计理念上实现根本转变,从优化局部性能转向培养全局洞察能力。

同时,评估体系也需要进一步扩展,从当前的定律发现测试延伸到真实科研流程的全面模拟,包括未知定律发现、动态实验设计和可证伪性验证等环节。只有通过这样的综合性评估,才能真正培育出具备本征科学智能的人工智能系统。

NewtonBench作为首个专门评估AI科学发现能力的综合性基准,为理解人工智能在科学研究中的角色和局限提供了重要工具。随着该基准的开源发布,预计将推动更多研究者投入到AI科学发现能力的研究中,最终促进人工智能在科学领域的深度应用。

发表评论

长征号 Copyright © 2013-2024 长征号. All Rights Reserved.  sitemap