全球在人工智能风险监管方面的步伐在加快。
当地时间11月1日,英国人工智能安全峰会(Artificial Intelligence Safety Summit, AISS)首日,英国在位于英格兰南部的布莱切利庄园宣布,多个在人工智能领域领先的国家和地区,包括美国、欧盟和中国,就人工智能带来的机遇和风险,以及各国携手应对挑战的必要性达成了共识,并签署了相关协议。英国随后发布了这份名为《布莱切利宣言》(下称《宣言》)的协议。
根据科技部消息,科技部副部长吴朝晖出席人工智能安全峰会,并于1日举行的开幕式全体会议上发言。与会期间,代表团参与人工智能安全等问题讨论,积极宣介中方提出的《全球人工智能治理倡议》,并将与相关国家开展双边会谈。
中方指出,此次峰会为各国提供了人工智能安全与国际治理议题的重要对话平台与交流合作机会。人工智能治理攸关全人类命运,是世界各国面临的共同课题。发展人工智能,应当积极倡导以人为本,智能向善,加强技术风险管控,并在相互尊重、平等互利的原则基础上,鼓励各方协同共治,增强发展中国家在人工智能全球治理中的代表性和发言权,不断弥合智能鸿沟和治理能力差距。
必要性和迫切性
在日内一场公开讲话中,英国科学、创新和技术大臣米歇尔·唐兰(Michelle Donelan)称,《宣言》“是一项具有里程碑意义的成就”,它为围绕人工智能相关风险的全球讨论奠定了基础,也让国际社会意识到,必须加深对人工智能相关风险的理解并取应对举措,因为“这是安全地利用人工智能带来的机遇的唯一途径”。
也有观点认为,从某种意义上讲,这份宣言可以视作国际社会首次就监管人工智能的必要性和迫切性做出正式声明,但就监管力度等问题仍存分歧。
总体来看,《宣言》最重要的内容包括两点:一是人工智能风险监管的必要性和迫切性,二是人类应对人工智能风险必须通过国际合作。
《宣言》提到,目前较大的安全风险出现在人工智能的“前沿”领域,即前沿AI(Frontier Artificial Intelligence),也就是那些能力强大的通用人工智能模型,包括可以执行各种任务的基础模型,以及特定的弱人工智能(narrow AI),两者都具有给人类社会带来伤害的能力。
如果上述前沿AI被故意滥用,或者在正当的使用过程中出现意外失控,都将会带来巨大风险。《宣言》认为,出现这些问题的部分原因是人们对这些前沿AI的能力还不完全了解,因此难以预测。
《宣言》尤其关注网络安全和生物技术等领域的风险,以及前沿AI可能放大虚信息等风险。鉴于人工智能发展速度之快和巨大的不确定性,以及在相关投资加速的背景下,《宣言》强调加深对这些潜在风险的理解,以及应对这些风险的行动尤为迫切。
在接受第一财经访时,伦敦国王学院教授、人工智能研究所所长卡迈恩·文特尔(Carmine Ventre)称,弱人工智能解决的是特定任务,如果落入坏人之手,可能会产生极为危险的后果,比如,“为生物工程应用而设计的人工智能模型,可能会被用来制造生物武器”。
加大投入应对AI风险
“前沿人工智能模型的威力正在呈指数级增长。”英国首相里希·苏纳克在社交媒体发文表示。
一年前的11月,当微软支持的人工智能初创公司OpenAI向公众开放ChatGPT聊天机器人应用时,人们开始担心人工智能可能对经济和社会产生的巨大影响。
英国在峰会上宣布将增加对两台超级计算机的资助,以支持先进人工智能模型安全的研究。其中一台超级计算机位于剑桥,由戴尔交付,包含超过1000个英特尔芯片;另一台位于布里斯托尔,由HPE制造,包含5000个英伟达先进人工智能芯片。
两台机器将从明年夏天开始运行,并推动药物发现和清洁能源方面的突破。
英国还表示,在人工智能研究方面的资金投入将从之前宣布的1亿英镑增加到3亿英镑(约合27亿元人民币)。
美国利用此次峰会宣布将成立美国人工智能安全研究所,该研究所将评估AI的潜在风险。美国总统拜登于本周一签署了一项行政命令,赋予美国对人工智能系统进行更大监督的权力。新成立的美国人工智能安全研究所将与国际同行机构共享信息并合作研究。
马斯克呼吁引入“第三方裁判”
参加会议的还有埃隆·马斯克和ChatGPT之父萨姆·奥尔特曼等科技大佬。科技高管和领导人警告称,人工智能的快速发展如果不加以控制,将对世界构成生存威胁,各国和国际机构必须取保障和监督措施。
目前针对人工智能大模型的发展主要存在两派观点:一派是以马斯克为代表的“风险警示者”,另一派是以谷歌、Meta等科技巨头企业为代表的“风险淡化派”。
马斯克在会上呼吁,引入“第三方裁判”对人工智能的风险提出警告。他说道:“我不知道公平的规则到底是什么,但在进行监督之前,你必须从洞察风险开始。”马斯克还表示,他不认为会在不知道该怎么做之前就匆忙制定人工智能的监管规则。
谷歌旗下人工智能部门Deepmind联合创始人穆斯塔法·苏莱曼则认为,当前的人工智能前沿模型不会造成任何“重大灾难性危害”。但他表示,随着行业训练更大的模型,提前风险的应对方式是有意义的。
牛津大学互联网研究院(OII)互联网研究教授、贝利奥尔学院研究员威廉·H·达顿(William H. Dutton)11月2日在参加于沙特首都利雅得举办的一场全球网络安全论坛期间接受第一财经专访时表示:“关于人工智能潜在风险的炒作非常多,但人们必须搞清楚到底何为风险、何为机会。这意味着我们需要更多的国际交流来了解人们对AI的想法。”
在谈到马斯克提出的在AI治理方面引入“第三方裁判”的措施时,达顿表示:“我认为其中存在的问题是,这个裁判是否能够公平地进行监督。”
学者呼吁建立国际监管机构
除了监管的必要性,《宣言》也高度强调了国际合作的重要性。《宣言》称,由于人工智能产生的许多风险本身具有国际性,因此最好通过国际合作加以解决。
《宣言》建议,各国应考虑取有利于创新、适度的治理和监管方法,最大限度地发挥人工智能的效益,并考虑到人工智能的相关风险;通过现有国际论坛和其他相关倡议,包括未来的国际人工智能安全峰会,加强和保持合作,并扩大与更多国家的合作,以确定、了解并酌情取行动。
记者在峰会现场了解到,已有多位参加峰会的人工智能领域学者呼吁建立一个国际监管机构,监管人工智能的开发和应用,具体内容包括:对先进的人工智能系统进行强制注册,开发时必须具备快速“关闭”功能,开发者必须将一定比例的研究预算用于确保人工智能安全。
此前亦有消息称,英国对于本次峰会的目标之一,便是通过为期两天的峰会,呼吁各国合作,成立一个类似于间气候变化专门委员会的人工智能专家监测小组。
卡迈恩·文特尔对此表示,决策者需要考虑到人工智能的特质,也就是发展方向的不确定性。他认为,目前人工智能发展的速度远超预期,因此,正在讨论的法规和监管方式,应该是面向未来,并充分考虑到该领域的前沿研究。