约翰·j·霍普菲尔德和杰弗里·e·辛顿于2024年10月8日获得诺贝尔物理学奖,以表彰他们在帮助计算机学习的机器学习算法和神经网络方面的研究。他们的工作是发展神经网络理论的基础,而神经网络理论是生成式人工智能的基础。
神经网络是由相互连接的神经元层组成的计算模型。就像你大脑中的神经元一样,这些神经元处理并发送一条信息。每个神经层接收一段数据,对其进行处理,并将结果传递给下一层。在序列结束时,网络已经处理并精炼了数据,使其变得更有用。
虽然Hopfield和Hinton因对计算机科学中使用的神经网络的贡献而获得物理学奖似乎令人惊讶,但他们的工作深深植根于物理学原理,特别是一个被称为统计力学的子领域。
作为一名计算材料科学家,我很高兴看到这一领域的研究获得了奖项。Hopfield和Hinton的工作使我和我的同事能够研究一种称为材料科学生成学习的过程,这种方法是ChatGPT等许多流行技术背后的方法。
统计力学是物理学的一个分支,它使用统计方法来解释由大量粒子组成的系统的行为。
研究人员不再关注单个粒子,而是使用统计力学来研究许多粒子的集体行为。观察它们如何共同作用有助于研究人员了解系统的大规模宏观特性,如温度、压力和磁化。
例如,物理学家恩斯特·伊辛在20世纪20年代建立了一个磁性的统计力学模型。伊辛把磁力想象成原子自旋与邻近原子相互作用的集体行为。
在Ising的模型中,系统有较高和较低的能态,材料更有可能存在于最低的能态。
统计力学中的一个关键思想是玻尔兹曼分布,它量化了给定状态的可能性。这个分布描述了一个系统处于特定状态的概率,如固体、液体或气体,基于它的能量和温度。
伊辛利用玻尔兹曼分布准确地预测了磁体的相变。他算出了材料从磁性变为非磁性的温度。
相变发生在可预测的温度下。冰在特定的温度下融化成水,因为玻尔兹曼分布预测,当温度变暖时,水分子更有可能呈现无序状态或液态。
在材料中,原子将自己排列成特定的晶体结构,使用最少的能量。当天气寒冷时,水分子冻结成具有低能态的冰晶。
类似地,在生物学中,蛋白质折叠成低能量的形状,这使它们能够像锁和钥匙一样针对病毒发挥特定抗体的作用。
从根本上说,所有的神经网络都基于一个相似的原理——最小化能量。神经网络利用这一原理来解决计算问题。
例如,想象一个由像素组成的图像,您只能看到图像的一部分。一些像素是可见的,而其余的是隐藏的。要确定图像是什么,需要考虑隐藏像素与可见像素相匹配的所有可能方式。从这里,你可以从统计力学所说的所有可能选项中选择最可能的状态。
Hopfield和Hinton在统计力学的基础上发展了一套神经网络理论。就像在他们之前的伊辛用神经网络模拟原子自旋的集体相互作用来解决照片问题一样,Hopfield和Hinton想象了像素的集体相互作用。他们将这些像素表示为神经元。
就像在统计物理中一样,图像的能量指的是像素的特定配置的可能性。Hopfield网络将通过寻找隐藏像素的最低能量排列来解决这个问题。
然而,与统计力学不同——在统计力学中,能量是由已知的原子相互作用决定的——神经网络从数据中学习这些能量。
Hinton推广了一种叫做反向传播的技术。这种技术可以帮助模型计算出这些神经元之间的相互作用能量,这种算法是现代人工智能学习的基础。
在霍普菲尔德的工作基础上,辛顿设想了另一个神经网络,称为玻尔兹曼机。它由我们可以观察到的可见神经元和帮助网络学习复杂模式的隐藏神经元组成。
在玻尔兹曼机中,你可以确定图像以某种方式呈现的概率。为了计算出这个概率,你可以把隐藏像素可能处于的所有状态加起来。这就给出了可见像素处于特定排列的总概率。
我的团队致力于在量子计算机中实现玻尔兹曼机器,用于生成学习。
在生成式学习中,网络学习生成新的数据样本,这些样本与研究人员提供给网络的训练数据相似。例如,在经过类似图像的训练后,它可能会生成手写数字的新图像。网络可以通过从学习到的概率分布中采样来生成这些。
生成式学习是现代人工智能的基础——它允许人工智能艺术、视频和文本的生成。
Hopfield和Hinton利用统计物理学的工具对人工智能研究产生了重大影响。他们的工作在自然如何决定材料的物理状态和神经网络如何预测复杂计算机科学问题解决方案的可能性之间建立了相似之处。
公司提供
nversation
本文转载自The Co在知识共享许可下的对话。阅读原文。
引用:物理学的一个分支领域如何导致人工智能的突破,以及从那里到今年的诺贝尔奖(2024年10月9日),从https://techxplore.com/news/2024-10-subfield-physics-breakthroughs-ai-year.html检索2024年10月10日
作品受版权保护。除为私人学习或研究目的而进行的任何公平交易外,未经书面许可,不得转载任何部分。的有限公司
内容仅供参考之用。