【环球时报特约记者 谢昭 环球时报记者 刘彩玉】瑞典皇家科学院10月9日宣布,将2024年诺贝尔化学奖授予美国华盛顿大学的戴维·贝克、英国伦敦谷歌旗下人工智能公司“深层思维”的德米斯·哈萨比斯和约翰·江珀三名科学家,以表彰他们“用人工智能(AI)破译蛋白质的密码”。此前一天,诺贝尔物理学奖也被授予两名AI科学家,其中一名还有“AI教父”之称,更是引起了全球的广泛议论。那么究竟应该如何看待AI成为今年诺贝尔化学奖与诺贝尔物理学奖的主要元素呢?
诺贝尔物理学奖:人工神经网络本是基于物理学概念
瑞典皇家科学院宣布将2024年诺贝尔物理学奖授予约翰·霍普菲尔德和杰弗里·辛顿,表彰他们在使用人工神经网络进行机器学习的基础性发现和发明,该技术是如今机器学习、深度学习、自然语言处理、计算机视觉等主流AI技术的基础。
在大部分人的概念中,AI技术属于数字科学领域,与传统物理学基本没有直接关系,因此不少网友都对此表示难以理解,一时间,还出现了“AI拿了奖,物理学不存在了”之类的调侃。对于诺贝尔物理学奖颁给AI科学家的决定,就连获奖者本人都颇为吃惊。辛顿接受美国媒体采访时透露,他接到获奖通知时正在加州的一个廉价旅馆中,“这里网络和信号不好,我今天原计划要去做核磁共振,现在看来要取消了。”
不过在《科学美国人》网站看来,瑞典皇家科学院将诺贝尔物理学奖颁布给这两名AI科学家的做法也有一定道理。报道称,人脑拥有数十亿个相互连接的神经元,可以产生意识,通常被认为是已知宇宙中最强大、最灵活的计算机。几十年来,科学家们一直在寻求通过模拟大脑自适应计算能力的机器学习方法。这次获奖的两名AI科学家利用物理学工具开发了人工神经网络,为当今许多最先进的AI应用奠定了基础。人工神经网络通过使用具有不同值的节点作为神经元的替代品来模拟大脑的认知功能。这些节点形成连接网络,类似于大脑的自然神经突触,可以通过对任意数据集进行训练来增强或减弱神经突触。这种自适应响应使人工神经网络能够更好地识别数据中的模式并对未来做出后续预测,即无须显式编程即可学习。
加州大学默塞德分校教授兼生物物理学家阿贾伊·戈皮纳坦表示:“这项诺贝尔奖旨在表彰受生物学和更广泛的生物物理学领域启发的物理学。这在我们对这些领域的理解以及计算机科学和AI的应用方面带来了一些真正的变革性进步。”
该报道还提到,从原理上看,人工神经网络最初的提出也是基于物理学的基本概念和方法。20世纪80年代初,霍普菲尔德受原子自旋物理学的启发,设计并完善了一种人工神经网络,即所谓的霍普菲尔德网络。事实证明,该方法对于以模仿人脑的方式存储、检索和重建模式具有变革性意义,被广泛用于许多优化问题,即从大量可能性中选择一个理想的解决方案。而辛顿在霍普菲尔德网络基础上结合统计物理学,扩展并构建了新的模型——玻尔兹曼机器,它擅长利用多个节点层之间的反馈来推断模式的统计分布来自训练数据。辛顿也因此被称为“AI教父”。
诺奖官网提到,今年获得诺贝尔物理学奖的两名AI科学家,利用物理学工具构建了多种方法,为当今强大的机器学习奠定了基础。
诺贝尔化学奖:用AI算法突破蛋白质结构预测难题
相比之下,2024年诺贝尔化学奖虽然也与AI相关,但受到的争议要少得多。据介绍,蛋白质是支撑人体基本生命活动的物质,由20种氨基酸连接形成的三维形状决定了其功能,所以研究蛋白质形状一直是医学领域的热门方向。但这些氨基酸有无数种不同的方式组合为蛋白质,想要用传统方法预测蛋白质结构不但耗时很长,而且费用昂贵。
瑞典皇家科学院表示,2024年诺贝尔化学奖授予三名科学家,其中一半授予美国科学家戴维·贝克,以表彰其在“计算蛋白质设计”方面的贡献;另一半授予就职于英国谷歌“深层思维”公司的德米斯·哈萨比斯和约翰·江珀,以表彰他们“对蛋白质结构预测的贡献”。其中戴维·贝克很早就提出预测和设计蛋白质三维结构的方法,还开发了从头设计自然界从未出现的新型蛋白的技术;而哈萨比斯和江珀开发了一个名为AlphaFold2的人工智能模型。这是一项基于深度学习和神经网络技术的算法,它能够直接从蛋白质的氨基酸序列中预测蛋白质的3D结构,并且达到原子级精度,被认为解决了困扰人类50年历史的蛋白质折叠挑战,迅速推进了人类对基本生物过程的理解,并促进药物设计。诺贝尔化学奖委员会称,AlphaFold2是一项“彻底的变革”。自这项模型推出以来,已有来自190个国家和地区超过200万人使用这一工具。正是有了这些工具,研究人员现在可以更好地了解抗生素耐药性并创建可以分解塑料的酶的图像。
在瑞典皇家科学院举行的新闻发布会上,贝克表示,AI对于未来科学发展至关重要。他说,哈萨比斯和江珀在蛋白质结构预测上的突破,更加凸显了人工智能可能带来的影响,使用这些工具进行蛋白质设计提高了工作的准确性。
该如何看待AI的影响
尽管今年诺贝尔化学奖与诺贝尔物理学奖均与AI有关,但对于AI技术扮演的角色,各方看法不一。《科学美国人》提到,经过几十年的努力推动AI发展后,辛顿如今更主张管控AI技术风险。他在接受采访时明确提到,“AI技术的影响将与工业革命相媲美,它不是在体力上而是在智力上超越人类。我们没有经历过遇到比我们人类更聪明的东西是什么感觉……我们必须担心一些可能的不良后果,特别是它们带来的威胁。”美国《华盛顿邮报》提到,辛顿此前甚至将现代AI技术称为是人类的“生存威胁”。辛顿曾认为,类似ChatGPT 和其他大型语言模型生成的文本输出类AI“在自己有生之年是不可能实现的”。在2023年接受美国《纽约时报》采访时,他承认:“我以为(AI技术的实现)还很遥远,需要30年到50年,甚至更久。显然,现在我不再这么想了。”因此他对AI的高速发展越来越感到不安,去年他从谷歌辞职,以更方便地对相关行业进行批评。
美国《大众科学》网站称,以辛顿为代表的批评者认为,如今科技行业急于创建更强大的AI模型可能会产生有害的社会副作用。
复旦大学计算机科学技术学院教授、上海市数据科学重点实验室主任肖仰华10日告诉《环球时报》记者,如今整个人类科学研究或许到了一个新的拐点,“这次诺贝尔奖之后,我相信整个科学研究可能会搭上新的范式——AI驱动的科研范式。”
肖仰华表示,可能未来整个传统自然科学都会使用AI工具来助力自己的科学研究,以及反过来,从自然科学寻求灵感去探索智能,去解决人工智能中的问题。这些研究思路未来都将被大家广泛使用。“AI驱动的科研将会是一个常态,如果说所有的自然科学都搭上AI翅膀之后,另外一个可能更深远的影响意味着我们整个科研的进程会加速,效率是传统方法无法比拟的。”肖仰华还举例说,以前一个重大的科学发现,可能需要经过若干年的积累,而未来可能是按月甚至按天实现这种科研和技术的进步,由此带来的将是整个人类社会的日新月异。
但肖仰华同时强调说,科学家不能只感受AI带来的这种喜悦,同时还要意识到AI的局限性。AI作为人类智力的一个延伸,总体上还只是一种工具,在科学家的监督和控制下去完成一些辅助的角色,或者说完成一些重复性的但是极耗人类科学家精力和时间的工作,它很难从根本上超越科学家的见识和知识的范围。AI能不能像人类科学家一样去提出具有创造框架性的新理论,目前看还是很有难度。像爱因斯坦一样用相对论的框架去理解这个世界,而不是牛顿的机械力学框架来理解世界,像这种框架性的“从0到1”的原始创新,仍然是AI难以做到的。
对于“诺贝尔物理学奖和化学奖都颁给AI,是不是意味着AI将要超越人类了?”“AI正在抢夺科学家的最重要荣誉?”等社交媒体上的相关热门讨论,肖仰华表示,AI再厉害仍是人类创造出来的,在AI能够创造出比起自身更厉害的智能体时,我们才需要担心AI对于人类的整体性超越问题。“从科研本身来讲,我觉得目前的风险问题还是可控的,当然我们有可能需要科学家们意识到AI也是会犯错的,不能对AI结果不加选择地盲目使用,它依赖于科学家的责任对结果进行一个评估评价。”