面对脱缰野马的科技,欧洲议会在2023年通过《人工智能法案》的立法草案,规范制造商必须防止AI生成非法内容、防止滥用和散播谎言,必须揭露模型的原始资料来源等。这部草案为全球AI管理定下基调,获得出版商和创作者的掌声,但科技业认为这会扼杀创新能力。
生成式人工智能(Generative AI)在“阅读”大量的大脑核磁共振图后建立了演算法,成功解读一张核磁共振图受试者当时正在聆听的广播内容,在这个基础上,人工智能更进一步从一张核磁共振图,解读受试者脑海中正在想的故事。历经10多年的努力,主持这项研究的美国得克萨斯州奥斯汀大学教授胡思(Alexander Huth)雀跃不已。这是跨出神经科学研究的一大步,可望协助瘫痪的人对谈沟通。但不久后,他却转而担忧这项可以洞悉大脑的技术,侵入了人类最私密的隐私领域。
早在20年前,已经有瘫痪病人在植入微电子装置后,能够透过意识移动滑鼠和控制机械义肢。10年前,科学家成功在实验老鼠的大脑里建立虚假的记忆,神经科学最近几年更在AI的加持下光速般跃进。但也有越来越多科学家担忧,这项医疗技术不只是“读心术”,还可能被用来操弄思想,或是警察在问讯时干扰嫌犯的思绪。
机器自主作决定仍是黑盒子
胡思的受试者明确知道自己在参与实验,他的仪器相当昂贵复杂,需要大规模的资金和时间投入,并非一般人会接触到的领域。但AI已经渗透到日常生活中,OpenAI以大型语言模型(LLM)为基础的ChatGpt在2022年底横空出世,能够以仿拟人类思考、进行情绪分析的模式生成电邮、公文,以及一些犹如内容农场的新闻。文字转图片的技术紧接而来,OpenAI日前公布的Sora软件,则可以根据简短的指令生成动画、写实影片等。
科学家研究AI超过半个世纪,但近来讨论越来越热,警告声浪也越来越高。令人瞠目结舌的并非新技术,毕竟当代人经历过了电脑、互联网、智能手机和社群媒体的洗礼,但AI发展速度之快、影响范围之深,让身在其中的科学家也无法忽视潜在的威胁。
1972年,仍是研究生的杰弗里·辛顿(Geoffrey Hinton)用神经网络的理论,建构数学模型分析数据,打下电脑深度学习的根基,但当时很少人相信这位后来被称为“人工智能之父”的异想天开。几年前,他仍以为AI需要至少30年到50年的时间,才可能比人类更聪明,但现在的发展让这个趋势可能很快出现。
为了畅所欲言,辛顿去年请辞谷歌副总裁的职务。他眼前的担忧是AI对假消息、虚假图片和影片的推波助澜,中期他则担忧这项科技会让许多人失业;长期而言,他害怕能够自行编写演算法的AI将超出人类的掌控,甚至威胁人类存亡。
AI带动的股市狂潮淹没了辛顿的警告,继续训练更强更大的功能。工业革命以来,人类不断追求更省力、更有效率的自动化,但AI向前跃进一步,让机器迈向“自主”(autonomy),不仅仅是听令行事自动辨识分析,还能够自主做决定,而决定的程序是人类未必理解的黑盒子。
从数码列宁主义到监控式资本主义
网络上的留言、跟语音助理的对话、分享的照片、使用的导航路径、各处的监视器,日日夜夜喂养着渴求包山包海资讯的AI黑盒子。许多原始数据在使用前,未经原作者同意,甚至原作者不知道自己的信息已经被撷取、使用并再制。AI的突飞猛进端赖过去20年在网络上积累的大数据,互联网从一开始的自由开放民主,随后走向封闭式的集中化,让科技巨擘海捞使用者贪图便利而无偿、无意识提供的海量数据。
当脸书、谷歌、亚马逊和微软等美国业者打着让人类生活更美好的招牌持续壮大时,中国政府已经看清数码科技的专断集中性质不只攸关经济利益,还涉及社会控制和国家安全,因而搭建数码长城防堵境外资讯,善用科技推动经济发展;在疫情期间施展近乎无孔不入的防疫手段之外,也利用数码科技监控人民的一举一动,打造德国汉学家韩博天(Sebastian Heilmann)所说的“数码列宁主义”(Digital Leninism)。
面对脱缰野马的科技,欧洲议会在2023年通过《人工智能法案》的立法草案,规范制造商必须防止AI生成非法内容、防止滥用和散播谎言,必须揭露模型的原始资料来源等,并要求防止歧视,限制一些被列为高风险的技术,例如影响选民想法和脸部辨识的工具等。这部草案为全球AI管理定下基调,获得出版商和创作者的掌声,但科技业认为这会扼杀创新能力。
工业革命时代的资本家希望借着自由放任的市场力量创造最大利润,反对限用童工、保护劳工、减少环境污染。现在的科技资本家有了抗拒政府监管的新理由——绑手绑脚的西方法规,会让不受约束的中国竞争者占上风。然而,美国哈佛大学社会心理学家祖博夫(Shoshana Zuboff)指出,在2001年的九一一恐怖袭击后,急于打恐的美国政府与科技公司达成默契,放手让科技公司搜刮各式各样的信息,20多年来塑造了“监控式资本主义”(Surveillance Capitalism);大陆政府则利用信息科技稳固威权政体,逾越隐私权红线,且掌握、塑造甚或扭曲信息认知的监控式资本主义。
欧盟法案排除军事用途像螳臂挡车
科幻小说和电影的形象塑造,加上AI一词,人们对于这项科技的想象常常是拟人化的,像是机器人,无论是贴心的虚拟情人,还是杀人不眨眼的机器人。但有关AI更贴切的语汇应该是“学习机器”,无论多么聪明高效,它仍是在金属盒子里的机器;而研发这机器的部分初始动机是军事用途,苹果电脑的AI助理软件Siri,源自美国国防部的虚拟语音助理研究;研发战争中无须军人驾驶的战车,则促成了电动车特斯拉的诞生。
以欧盟单一市场为基础的欧洲《人工智能法案》像是螳臂挡车,排除了欧盟层级不具立法权限但风险相当高的军事用途。尽管使用AI辨识敌人和目标,在战场上已经相当常见,只是许多国家规定,攻击的命令仍要由军人决定,不交由演算法决定。不过,以色列的铁穹防导弹系统能自动自决,侦测到导弹就发射,掌握更多生杀大权。中国明白AI在战场上的重要角色,尤其是看过俄罗斯在乌克兰战争的弱点后,积极研发无人战车,推动即时整合有关辨识、追踪、分析和攻击的相关感应器与神经网络,以攻击敌人的后勤和指挥网络。
辛顿在1980年代离开美国,前往加拿大任教,原因是他坚决反对在战场上使用AI,或是所谓的“机械战士”,拒绝拿五角大楼的经费从事研究。他说:“你很难想象,如何防止坏人拿它做坏事。”更复杂的伦理难题是,威力如此强大的科技,即使落在所谓的好人手里,也可能因为无知或错估而酿成无法挽回的灾难。
作者是旅居意大利的台湾记者、社会学博士