重磅!2024诺贝尔物理学奖颁发给人工智能奠基人

重磅新闻
2024 年诺贝尔物理学奖授予约翰·霍普菲尔德(John J. Hopfield)和杰弗里·辛顿(Geoffrey E. Hinton),“以表彰他们利用人工神经网络进行机器学习的奠基性发现和发明”。下文来自诺贝尔奖官网提供的科普背景《They used physics to find patterns in information》。
今年的获奖者利用物理学的工具构建了方法,为当今强大的机器学习奠定了基础。约翰·霍普菲尔德创建了一个可以存储和重建信息的结构。杰弗里·辛顿发明了一种方法,可以独立地发现数据中的属性,这在现在使用的大规模人工神经网络中变得重要。许多人都体验过计算机如何翻译语言、解释图像甚至进行合理的对话。或许不太为人所知的是,这类技术长期以来对研究很重要,包括对大量数据的排序和分析。机器学习的发展在过去十五到二十年中爆炸性增长,利用了一种叫做人工神经网络的结构。如今,当我们谈论人工智能时,通常指的是这类技术。尽管计算机不能思考,机器现在可以模仿记忆和学习等功能。今年的物理学奖获得者帮助使这成为可能。他们利用物理学的基本概念和方法,开发了使用网络结构处理信息的技术。

机器学习与传统软件不同,后者像一种食谱。软件接收数据,根据清晰的描述进行处理,并产生结果,就像某人收集原料并按照食谱加工,制作蛋糕一样。与此相反,在机器学习中,计算机通过示例学习,使其能够处理过于模糊和复杂而无法通过逐步指令管理的问题。一个例子是解释图片以识别其中的物体。

模仿大脑
人工神经网络使用整个网络结构处理信息。灵感最初来自于想要理解大脑的工作原理。在20世纪40年代,研究人员开始推理大脑的神经元和突触网络背后的数学。另一个谜题的部分来自心理学,感谢神经科学家唐纳德·赫布关于学习如何发生的假设,因为当它们一起工作时,神经元之间的连接得到加强。后来,这些想法通过构建人工神经网络作为计算机模拟来重现大脑网络的功能。在这些网络中,大脑的神经元被赋予不同值的节点所模仿,突触由节点之间的连接所代表,这些连接可以变得更强或更弱。赫布的假设仍然是通过称为训练的过程更新人工网络的基本规则之一。在20世纪60年代末,一些令人沮丧的理论结果导致许多研究人员怀疑这些神经网络将永远不会有任何实际用途。然而,在1980年代,随着一些重要想法的影响,对人工神经网络的兴趣重新燃起,包括今年获奖者的工作。

联想记忆
想象你正在试图记住一个你很少使用的相当不寻常的词,比如电影院和演讲厅中常见的倾斜地板的词。你搜索你的记忆。它有点像ramp……也许是rad?不,不是那个。rake,就是它!这种通过搜索相似的词来找到正确的词的过程,让人想起了物理学家霍普菲尔德在1982年发现的联想记忆。霍普菲尔德网络可以存储模式,并有一种方法来重现它们。当网络被给出一个不完整或略有扭曲的模式时,该方法可以找到最相似的存储模式。霍普菲尔德曾利用自己的物理学背景探索分子生物学的理论问题。当他应邀参加一次有关神经科学的会议时,他接触到了有关大脑结构的研究。他被所学到的知识深深吸引,并开始思考简单神经网络的动力学。当神经元共同作用时,它们会产生新的、强大的特性,而这些特性对于只观察网络单独组成部分的人来说是不明显的。

1980 年,霍普菲尔德离开了他在普林斯顿大学的工作岗位,因为他的研究兴趣使他离开了物理学界同事工作的领域,来到了美国大陆的另一端。他接受了位于加利福尼亚州南部帕萨迪纳市的加州理工学院(Caltech)化学和生物学教授的聘书。在那里,他可以使用计算机资源进行自由实验,并发展他关于神经网络的想法。

不过,他并没有放弃物理学的基础,因为在物理学中,他找到了灵感,理解了由许多小部件组成的系统如何协同工作,从而产生新的有趣现象。他尤其受益于对磁性材料的了解,这些材料因其原子自旋而具有特殊的特性——这种特性使每个原子都成为一块微小的“磁铁”。相邻原子的自旋(spin)会相互影响,从而形成自旋方向相同的磁畴(domain)。他利用描述自旋相互影响时材料如何发展的物理学原理,制作了一个具有节点和连接的模型网络。

网络在“景观”中保存图像
霍普菲尔德构建的网络节点通过不同强度的连接相互连接。每个节点可以存储一个单独的值——在霍普菲尔德的最初工作中,这可以是0或1,就像黑白图片中的像素一样。霍普菲尔德用一个属性描述了网络的总体状态,这相当于物理学中自旋系统中的能量;能量是使用一个公式计算的,该公式使用所有节点的值和它们之间连接的所有强度。霍普菲尔德网络通过将图像输入到节点来编程,节点被赋予黑色(0)或白色(1)的值。然后使用能量公式调整网络的连接,以便保存的图像获得低能量。当另一个模式输入到网络时,有一个规则来逐个检查节点,看如果改变该节点的值,网络的能量是否更低。如果发现如果黑色像素变成白色,能量会降低,它就会改变颜色。这个过程一直持续到找不到任何进一步的改进为止。当达到这一点时,网络通常在它训练的原始图像上重现了图像。如果你只保存一个模式,这可能看起来并不那么引人注目。也许你想知道为什么你不只是保存图像本身,并将其与正在测试的另一个图像进行比较,但霍普菲尔德的方法是特别的,因为可以同时保存多个图片,网络通常可以区分它们。

霍普菲尔德将搜索网络以找到保存的状态比作在有摩擦减缓其运动的山峰和山谷的景观中滚动一个球。如果球被放在一个特定的位置,它会滚进最近的山谷并停在那里。如果网络被给出了一个接近保存的模式的模式,它将以同样的方式继续前进,直到它在能量风景的山谷底部结束,从而找到记忆中最接近的模式。

霍普菲尔德网络可以用来重建包含噪声或已被部分删除的数据。

霍普菲尔德和其他人继续开发霍普菲尔德网络功能的细节,包括可以存储任何值的节点,而不仅仅是 0 或 1。如果把节点想象成图片中的像素,它们可以有不同的颜色,而不仅仅是黑或白。改进后的方法可以保存更多的图片,即使它们非常相似,也能区分开来。只要是由许多数据点构建的信息,就同样可以识别或重建任何信息。

使用十九世纪物理学进行分类
记住图像是一回事,但解读图像所描绘的内容则需要更多的知识。即使是很小的孩子,也能指着不同的动物,自信地说出是狗、猫还是松鼠。他们可能偶尔会说错,但很快他们几乎都能说对。即使没有看到任何图表或物种或哺乳动物等概念的解释,孩子也能学会这些。在接触过每种动物的一些例子后,不同的分类就会在孩子的脑海中形成。人们通过体验周围的环境,学会辨认一只猫,或理解一个词,或进入一个房间并注意到某些东西发生了变化。霍普菲尔德发表关于联想记忆的文章时,辛顿正在美国匹兹堡的卡内基梅隆大学工作。他曾在英格兰和苏格兰学习过实验心理学和人工智能,当时他在想,机器能否学会以类似于人类的方式处理模式,找到自己的分类和解释信息的方法。辛顿与他的同事特伦斯·塞伊诺夫斯基(Terrence Sejnowski)一起,从霍普菲尔德网络出发,利用统计物理学的思想,对其进行了扩展,以建立一种新的网络。

统计物理学描述的是由许多相似元素组成的系统,例如气体中的分子。追踪气体中所有独立的分子是困难的,或者说是不可能的,但可以将它们视为一个整体来确定气体的总体特性,如压力或温度。气体分子以各自的速度在其体积中扩散,但仍能产生相同的集体特性,这其中有许多潜在的方法。

可以使用统计物理学分析个别组件可以共同存在的状态,并计算它们发生的概率。有些状态比其他状态更有可能发生,这取决于可用能量的大小,十九世纪物理学家路德维希·玻尔兹曼(Ludwig Boltzmann)曾用一个方程式来描述这种情况。辛顿的网络利用了那个方程,该方法在1985年以“玻尔兹曼机器Boltzmann machine”的名字发表。

识别同一类型的新例子
玻尔兹曼机通常使用两种不同类型的节点。一组节点接收信息,称为可见节点。其他节点构成隐藏层,隐藏节点的值和连接也会增加整个网络的能量。机器运行时会应用一个规则逐个更新节点的值。最终,机器将进入这样一种状态:节点的模式可以改变,但整个网络的属性保持不变。根据玻尔兹曼方程,每种可能的模式都有一个由网络能量决定的特定概率。当机器停止时,它已经创造了一种新的模式,这使得玻尔兹曼机器成为生成模型的早期范例。玻尔兹曼机器可以学习——不是来自指令,而是来自给出的例子。它通过更新网络连接中的值进行训练,以便在训练期间输入到可见节点的示例模式在机器运行时发生的可能性尽可能高。如果同一个模式在训练期间重复了几次,这个模式的概率就更高。训练还影响输出与训练材料相似的新模式的概率。

训练有素的玻尔兹曼机器可以识别它以前从未见过的信息中熟悉的特征。想象一下见到朋友的兄弟姐妹,你可以立即看出他们一定是亲戚。类似地,如果一个全新的例子属于训练材料中的某个类别,玻尔兹曼机器就能识别出它,并将它与不相似的材料区分开来。

在其原始形式中,玻尔兹曼机器相当低效,需要很长时间才能找到解决方案。当它以各种方式发展时,情况就变得更加有趣了,而辛顿一直在探索这些方式。后来的版本被精简了,因为一些单元之间的连接被移除了。事实证明,这可能会使机器更高效。

在20世纪90年代,许多研究人员对人工神经网络失去了兴趣,但辛顿是继续在该领域工作的人之一。他还帮助启动了新一波激动人心的结果;在2006年,他和他的同事西蒙·奥辛德罗(Simon Osindero),易怀德(Yee Whye Teh)和鲁斯兰·萨拉赫特迪诺夫(Ruslan Salakhutdinov)开发了一种方法,通过一系列层次化的玻尔兹曼机器进行预训练。这种预训练为网络的连接提供了一个更好的起点,从而优化了识别图片中元素的训练。

玻尔兹曼机器通常作为更大网络的一部分使用。例如,它可以用于根据观众的偏好推荐电影或电视剧。

机器学习——今天和明天
霍普菲尔德和辛顿从20世纪80年代开始的工作,为2010年左右开始的机器学习革命奠定了基础。我们现在所见证的发展,是因为可以访问大量数据来训练网络,以及计算能力的大幅增加。如今的人工神经网络通常非常庞大,由许多层构成。这些网络被称为深度神经网络,其训练方式被称为深度学习。简单浏览一下霍普菲尔德在 1982 年发表的关于联想记忆的文章,就能对这一发展有所了解。在这篇文章中,他使用了一个有 30 个节点的网络。如果所有节点都相互连接,那么就有 435 个连接。节点有各自的值,连接有不同的强度,总共有不到 500 个参数需要跟踪。他还尝试过一个有 100 个节点的网络,但考虑到他当时使用的计算机,这太复杂了。我们可以将其与当今的大型语言模型进行比较,后者构建的网络可以包含超过一万亿个参数(一百万个)。

目前,许多研究人员正在开发机器学习的应用领域。哪一个领域最可行还有待观察,而围绕这项技术的开发和使用的伦理问题也引起了广泛的讨论。

物理学为机器学习的发展提供了工具,因此,我们不妨来看看物理学作为一个研究领域是如何从人工神经网络中获益的。长期以来,机器学习一直被应用于我们可能从以往的诺贝尔物理学奖中熟悉的领域。其中包括利用机器学习筛选和处理发现希格斯粒子所需的大量数据。其他应用还包括在测量黑洞碰撞产生的引力波或寻找系外行星时减少噪音。

近年来,这种技术也开始用于计算和预测分子和材料的特性,例如计算决定其功能的蛋白质分子结构,或找出哪种新材料具有最佳特性来提高太阳能电池的性能。

获取报告?
https://www.nobelprize.org/prizes/physics/2024/hopfield/facts/
来源:诺贝尔奖官网、图灵财经
广告位
联系我们

联系我们

13316818043

邮箱: marketing@saiia.org.cn

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
返回顶部