2024年诺贝尔物理学奖授予美国普林斯顿大学的霍普菲尔德(John J. Hopfield)和加拿大多伦多大学的辛顿(Geoffrey E. Hinton),以表彰他们“为推动利用人工神经网络进行机器学习做出的基础性发现和发明”。辛顿被誉为人工智能(AI)教父,但一直以来,他都提醒人们,AI或许威胁人类生存。

从1980年代开始,霍普菲尔德和辛顿就进行人工神经网络方面的研究,霍普菲尔德提出日后被称为“霍普菲尔德网络”的一种新的神经网络模型;辛顿则在卷积神经网络理论上深有建树,在1986年与另两位作者发表《通过反向传播误差来学习》的论文,奠定深度学习理论核心。之后反向传播算法应用于多层神经网络,证明这种方法对机器学习很有效果,代表作就是ChatGPT这一深度学习模型。

辛顿在2013年加入谷歌,因在深度学习方面的贡献,他与本希奥和杨立昆被称为“深度学习三巨头”,2018年三人同获图灵奖。然而,对于AI,辛顿一直在发出警示之声。他提出一个明确理念,要引导AI系统,使其行为符合设计者利益和预期目标,因此被称为“AI对齐派”的代表。

2023年5月,辛顿从谷歌离职。不久,他便在X(原推特)平台上发文表示,离开谷歌是为了可以“公开地谈论AI的危险”。他一直为自己从事的AI工作感到有些后悔。“我用平常的借口来安慰自己:就算我没做,别人也会做的……很难想象,你能如何阻止坏人利用它(AI)来做坏事。”

人类将会落后

辛顿直言不讳AI的危险,它真的有可能采用对人类有害的手段,来实现被设定的目标,并且AI之间还可能会在未来出现竞争关系。辛顿同时也反驳一种观点,在AI失控之时可拔掉电源来阻止,因为超越人类智慧的AI可以用语言操纵人类,或许会试图说服我们不要关掉开关。面对通过竞争变得更聪明的AI,人类将会落后。

辛顿这些言论并非危言耸听。过去,已经有太多的AI造假和作恶,如网络出现裸体拜登(美国现任总统)暴打未成年女孩画面,AI软件骗取个人和机构的财物,AI操控和引导选民等。而且,AI风险涉及社会和个人生活的方方面面,包括政治、金融、各类产品造假、国家安全、个人隐私和财产等。

因此,美国加利福尼亚大学伯克利分校信息学院副院长法里德说:“当新闻、图像、音频、视频——任何事情都可以伪造时,在那个世界里,就没有什么是真实的。”

对于AI的危险和人们使用AI的安全性,国际社会也已经有共识。2021年11月24日,联合国教科文组织第41届大会通过有史以来第一个关于AI伦理的全球协议《人工智能伦理问题建议书》,有193个会员国在教科文组织大会上表决同意。这是第一个关于人工伦理的全球性规范文书。

这也是首个关于以符合伦理要求的方式运用AI的全球框架。建议书提出,发展和应用AI要体现出四大价值,即尊重、保护和提升人权及人类尊严,促进环境与生态系统的发展,保证多样性和包容性,构建和平、公正与相互依存的人类社会。

关于AI对人类的威胁,建议书也提出一些防范原则。AI应具有相称性和不损害性,还应当具有安全和安保、公平和非歧视、隐私权和数据保护、透明度和可解释性、人类的监督和决定、互惠性等。

这也意味着,国际社会已经达成一种共识,研发和应用AI,哪些是可以做的,哪些是不能做的。AI只要遵循适宜性(相称性)、安全、公平、透明、保护隐私和公正等原则的,就是可以做的;反之就是不可以做的。

总体而言,从适宜性,也即相称性和合理性来看,任何一项AI产品的研究和使用,都应证明选择使用AI系统和选用哪种AI方法具有合理性。根据联合国的AI伦理建议书,未来每家公司和个人研发AI产品时,都应当经过伦理委员会的讨论和批准。正如今天的生物医学研究和医院治疗病人,在涉及生命和安全时,必须经过伦理委员会的讨论和批准,尤其要避免像深伪技术一样造成社会的恐慌、伤害和损失,甚至灾难。这应当是AI发展现在和未来必须经历的程序和步骤。

在人工神经网络和机器学习内容的创造者获得诺奖之时,辛顿关于AI有可能带来事关人类生存危机的警示更值得关注;而且,他更认为,比起安全性,组织往往会更重视AI创造的利益。辛顿的提醒得到一些专业人员的呼应和支持。OpenAI前首席科学家苏茨克韦是辛顿最得意的弟子之一。2023年11月,OpenAI发生“政变风云”,董事会曾一度宣布解雇公司总裁、有“ChatGPT之父”之称的奥特曼。主要原因是,奥特曼与公司首席技术官穆拉蒂关于AI产品研发和推向市场的理念不同。奥特曼认为,公司的一项强大的人工智能Q*模型可能威胁人类,须暂缓进行,但穆拉蒂认为可以研发并尽快推向市场。苏茨克韦是支持奥特曼的,认为AI的安全性应放在第一位。今年5月,苏茨克韦从OpenAI离职,并在一个月后宣布成立新公司SSI(Safe Superintelligence Inc,安全超级智能),表示将致力于追求安全超级智能。

未来,任何研究AI并推出AI产品的机构和个人,都应当以联合国的《人工智能伦理问题建议书》进行评估,而且在推向社会后,各国也要有相应的AI伦理指南的法律进行监管。如此,才能让AI最大程度地造福社会,最小程度地伤害社会。

作者是北京学者

您查看的内容可能不完整,部分内容和推荐被拦截!请对本站关闭广告拦截和阅读模式,或使用自带浏览器后恢复正常。