数学与物理一直是紧密相连的学科,它们共同见证了技术进步的起伏,从计算尺到计算器,再到如今的Wolfram Alpha等辅助工具。近年来,随着机器学习在解决数学和物理问题上的应用,一个新的问题浮现出来:我们为何要让算法模仿我们的思维方式?
为什么要做这件事?
谷歌研究院的机器学习专家盖伊·古尔阿里指出,计算机在处理具体的数学运算时表现出色,但面对复杂的逻辑推理任务时却显得力不从心。尽管机器学习模型通过更多的训练数据可以减少错误,但在处理定量推理问题时,其进步空间依然有限。
2021年,加州大学伯克利分校和OpenAI的研究团队分别发布了MATH和GSM8K两个数据集,这两个数据集包含了数千个涉及几何、代数和微积分基础的数学问题。这些数据集旨在检验训练模型在解决定量推理问题时的表现。结果显示,即使是顶级的机器学习语言模型,在解决这些问题时得分也很低,远低于人类的成绩。
GSM8K数据集主要包含小学级别的数学问题,受训模型的准确率约为20%。为了提升准确率,OpenAI的研究人员采用了精调和验证的技术。精调是指在训练过程中仅向模型展示相关的信息,验证则允许模型重新评估其错误。2022年6月,谷歌的Minerva宣布,通过较小规模的数据训练,模型在GSM8K上的准确率达到了78%,远远超出了OpenAI的预期。
Minerva利用谷歌的通路语言模型(PaLM)进行了格式化的数学训练,同时还采用了“思维链提示”和多数投票策略。通过这些新策略,Minerva在MATH数据集上的准确率达到了50%,在GSM8K数据集上的准确率接近80%。此外,Minerva在MMLU数据集上的表现也十分出色,这表明其解决问题的能力不仅仅依赖于记忆。
然而,Minerva在处理复杂的数学问题时仍存在局限性。它缺乏传统数学证明所需的严格结构,可能会产生奇怪的推理路径,但仍然能得出正确答案。随着数值变大,其准确度会有所下降,这与传统的计算器如TI-84 Plus的表现截然不同。
像物理学家一样思考
粒子物理学中的数据具有独特性。虽然卷积神经网络(CNN)在处理图像分类任务时表现出色,但其并不适用于处理粒子碰撞数据。加州大学圣地亚哥分校的粒子物理学家哈维尔·杜尔特表示,LHC的碰撞数据无法直接转换为图像,因此传统的CNN难以处理这类数据。相比之下,图形神经网络(GNN)在处理此类数据时表现出色。
为了提高数据筛选效率,研究人员希望开发出能够在微秒级别内执行的高效算法。剪裁和量化等机器学习技术使算法更加高效。此外,机器学习还促使物理学家重新审视一些基本概念,如对称性。MIT的理论粒子物理学家杰西·泰勒提到,通过教授计算机对称性的概念,他也更好地理解了对称性的本质。
尽管机器学习在粒子物理学中的应用仍处于初期阶段,但其带来的改变已经开始显现。一些物理学家担心,过度依赖机器学习可能会掩盖复杂情况,因此他们致力于构建能够提供人类可理解反馈的算法。
结语
泰勒认为,一方面,我们希望机器能够像物理学家一样思考;另一方面,我们也需要学习如何像机器一样思考。两者之间的交流至关重要。作者:Dan Garisto
转载内容仅代表作者观点,不代表中科院物理所立场。如需转载请联系原公众号。
来源:悦智网
编辑:扫地僧