人工智能军备控制的道路
美中必须合作以避免灾难发生。
亨利·A·基辛格和格雷厄姆·艾利森著
今年是历史上最致命战争结束 78 周年,也是现代史上没有发生大国战争的最长时期开始之时。由于一战仅仅在二十年后就爆发了二战,因此在随后的冷战几十年里,人们一直笼罩在三战的阴影之下,而三战将使用具有理论上威胁全人类的毁灭性武器。当美国在广岛和长崎投下原子弹迫使日本立即无条件投降时,没有人认为世界将在接下来的七十年里对使用核武器实行事实上的暂停。似乎更加不可能的是,近八十年后,只剩下九个核武器国家。美国在这些年代里避免核战争、减缓核扩散并塑造了一个几十年来没有发生大国战争的国际秩序,其领导力将作为美国最重大的成就之一载入史册。
如今,随着世界面临另一项前所未有的、在某些方面甚至更加可怕的技术——人工智能——带来的独特挑战,许多人从历史中寻找指导就不足为奇了。具备超人类能力的机器会威胁到人类作为宇宙主宰的地位吗?人工智能会破坏国家对大规模暴力手段的垄断吗?人工智能会使个人或小团体能够制造出能够大规模杀伤病毒吗?人工智能会侵蚀一直是当今世界秩序支柱的核威慑吗?
目前,没有人能自信地回答这些问题。但是,在过去两年里,当我们与一群处于人工智能革命前沿的技术领导者探讨这些问题时,我们得出的结论是,人工智能不受限制的进步将给美国和世界带来灾难性后果,这种可能性是如此令人信服,以至于政府领导人必须立即采取行动。即使他们或其他人不知道未来会发生什么,但已经了解到足够的信息,可以立即开始做出艰难的选择并采取行动——认识到随着更多信息的发现,这些选择和行动将反复修改。
在领导人做出这些选择时,核时代吸取的教训可以为他们的决策提供参考。即使竞相开发和部署可以杀死数亿人的前所未有技术的对立国家,也发现了共同利益的领域。作为二元垄断者,美国和苏联都有兴趣阻止这种技术迅速扩散到可能威胁到它们的国家。华盛顿和莫斯科都认识到,如果核技术落入其境内流氓行为者或恐怖分子手中,它可能被用来威胁它们,因此各自为其武库开发了强大的安全系统。但是,由于每个国家都可能受到其对手社会中的流氓行为者获得核武器的威胁,因此它们都认为有必要就这种风险进行讨论,并描述它们为确保这种情况不会发生而制定的做法和技术。一旦它们的核武器库达到一定水平,以至于任何一方都无法在不引发足以摧毁自身的反应的情况下攻击另一方,它们就发现了相互确保毁灭 (MAD) 的悖论稳定性。随着这种丑陋的现实被内化,每个大国都学会了自我限制,并找到了方法来说服对手限制其行动,以避免可能导致战争的对抗。事实上,美国和苏联政府的领导人都意识到,避免一场以其国家为首个受害者的核战争是一项首要责任。
人工智能今天带来的挑战不仅仅是核时代的第二章。历史不是一本可以遵循食谱制作出舒芙蕾的菜谱。人工智能与核武器之间的差异至少与相似之处一样重要。然而,只要正确理解和调整,塑造了一个近八十年没有发生大国战争的国际秩序的经验教训,为当今面对人工智能的领导人提供了最好的指导。
目前,只有两个人工智能超级大国:美国和中国是唯一拥有培训最复杂的人工智能模型所需的人才、研究所和大规模计算能力的国家。这为它们提供了一个狭窄的窗口期,可以创建准则来防止人工智能最危险的进展和应用。美国总统乔·拜登和中国国家主席习近平应抓住这次机会,举行峰会——也许就在 11 月亚太经济合作组织在旧金山的会议之后——他们可以在峰会上就他们认为当今面临的最重要问题之一进行广泛、直接的面对面讨论。
核时代的教训
1945 年原子弹摧毁日本城市后,打开潘多拉原子弹魔盒的科学家们看到了他们创造的东西,并惊恐地退缩了。曼哈顿计划的主要科学家罗伯特·奥本海默回忆起《薄伽梵歌》中的一句话:“现在我已成为死神,世界的毁灭者。”奥本海默成为控制原子弹的激进措施的如此热心的倡导者,以至于他的安全许可被取消。罗素-爱因斯坦宣言——1955 年由包括伯特兰·罗素和阿尔伯特·爱因斯坦在内的 11 位主要科学家签署,其中还包括莱纳斯·鲍林和马克斯·玻恩——警告了核武器的可怕威力,并恳请世界领导人永远不要使用它们。
尽管美国总统哈里·杜鲁门从未对他的决定表示过第二次想法,但无论是他和他的国家安全团队成员都没有一个可行的观点,说明如何将这项可怕的技术整合到战后的国际秩序中。美国是否应该尝试保持其作为唯一原子大国的垄断地位?那甚至可行吗?为了实现这一目标,美国是否可以与苏联分享其技术?在这个拥有这种武器的世界中生存是否需要领导人发明某种高于国家政府的权威?杜鲁门时期的战争部长亨利·史汀生(他刚刚帮助战胜了德国和日本)提议美国与苏联领导人约瑟夫·斯大林和英国首相温斯顿·丘吉尔分享其原子弹垄断地位,以创建一个防止核武器扩散的大国“共管国”。杜鲁门成立了一个委员会,由美国国务卿助理迪安·艾奇逊担任主席,以制定一项战略来追求史汀生的提议。
艾奇逊基本上同意史汀生的看法:防止以灾难性战争结束的核军备竞赛的唯一方法是创建一个将成为唯一拥有原子武器的国际权威机构。这将要求美国与苏联和其他联合国安理会成员分享其核秘密,将其核武器转移给联合国新成立的“原子发展管理局”,并禁止所有国家发展武器或建立生产武器级核材料的能力。1946 年,杜鲁门派金融家兼总统顾问伯纳德·巴鲁克前往联合国谈判一项协议,以实施艾奇逊的计划。但这一提议被苏联驻联合国代表安德烈·葛罗米柯断然拒绝。
三年后,当苏联成功地进行了制造其自身原子弹的突击努力时,美国和苏联进入了人们开始称之为冷战的时期:一场除了炸弹和子弹之外的一切手段的竞争。这场竞争的一个核心特征是对核优势的追求。在鼎盛时期,这两个超级大国的核武库包括 60,000 多件武器,其中一些弹头比有史以来所有战争中使用过的所有武器都具有更大的爆炸威力。专家们争论一场全面核战争是否意味着地球上每一个生物的终结。
几十年来,华盛顿和莫斯科在其核武库上花费了数万亿美元。美国核企业目前的年度预算超过 500 亿美元。在这场竞赛的早期,美国和苏联都做出了以前无法想象的飞跃,希望获得决定性优势。武器爆炸威力的增加需要创建新的衡量标准:从最初裂变武器的千吨(相当于 1,000 吨 TNT 释放的能量)到氢聚变炸弹的百万吨(相当于一百万吨释放的能量)。双方发明了洲际导弹,能够在 30 分钟内将弹头投送到地球另一端的目标,绕地球轨道运行的卫星高度数百英里,配备了能够在几英寸内识别目标坐标的摄像头,以及实质上可以用子弹击中子弹的防御系统。一些观察家认真地想象了防御系统,正如罗纳德·里根总统所说,将使核武器“无能为力且过时”。
概念性武器库
在尝试塑造这些发展时,战略家们开发了一套概念性武器库,将首次和第二次打击区分开来。他们阐明了可靠报复性反应的基本要求。他们还开发了核三位一体——潜艇、轰炸机和陆基导弹——以确保如果对手发现一个漏洞,武器库的其他组成部分仍可用于毁灭性反应。对武器意外或未经授权发射风险的认识促进了允许行动链接的发明——嵌入核武器中的电子锁,防止它们在没有正确核发射代码的情况下被激活。冗余设计是为了防止可能危及指挥和控制系统的技术突破,这促进了计算机网络的发明,该网络演变为互联网。正如战略家赫尔曼·卡恩著名所说,他们“正在思考不可想象的事情”。
核战略的核心是威慑的概念:通过威胁与任何可以想象的好处不成比例的成本来阻止对手发动攻击。人们逐渐认识到,成功的威慑不仅需要能力,还需要可信度。潜在受害者不仅需要果断回应的手段,还需要意愿。战略家们用诸如延伸威慑之类的概念进一步完善了这个基本思想,延伸威慑试图利用一种政治机制——通过联盟承诺保护——来说服关键国家不要建立自己的武库。
1962 年,当美国总统约翰·F·肯尼迪因苏联在古巴部署的核弹头导弹而与苏联领导人尼基塔·赫鲁晓夫对峙时,美国情报界估计,即使肯尼迪发动成功的第一次打击,苏联利用其现有能力进行报复性反应也可能杀死 6200 万美国人。到 1969 年理查德·尼克松成为总统时,美国需要重新考虑其做法。我们其中一位,基辛格,后来描述了这一挑战:“我们优势时期形成的防御战略必须在严酷的新现实的照耀下重新审视。……没有好战的言论可以掩盖现有核武器储备足以摧毁人类这一事实。……没有比防止核战争灾难更高的责任了。”
为了使这种情况变得生动,战略家们创造了具有讽刺意味的缩写词 MAD,其本质由里根经常重复的一句话概括:“核战争无法取胜——因此永远不能进行。”在操作上,MAD 意味着相互确保脆弱性。虽然美国和苏联都试图摆脱这种情况,但他们最终认识到,他们无法做到这一点,并且必须从根本上重新构想他们的关系。1955 年,丘吉尔指出了“安全将成为恐怖的坚强孩子,生存将成为毁灭的孪生兄弟”的至高讽刺。在不否认价值观差异或损害重要国家利益的情况下,致命对手必须制定战略,通过除全面战争之外的一切可能的手段击败对手。
这些战略的一个支柱是一系列现在称为军备控制的默示和明确限制。甚至在 MAD 之前,当每个超级大国都尽其所能实现优势时,它们都发现了共同利益领域。为了减少错误的风险,美国和苏联在非正式讨论中同意不干涉对方对其领土的监视。为了保护其公民免受放射性尘埃的影响,他们禁止了大气层试验。为了避免“危机不稳定性”——当一方认为另一方即将发动攻击时感到有必要首先发动攻击时——他们在 1972 年的反弹道导弹条约中同意限制导弹防御。在 1987 年签署的中程核力量条约中,里根和苏联领导人米哈伊尔·戈尔巴乔夫同意消除中程核力量。战略武器限制谈判于 1972 年和 1979 年签署条约,限制了导弹发射器的增加,后来,1991 年签署的战略武器削减条约 (START) 和 2010 年签署的新 START 减少了导弹发射器的数量。也许最重要的是,美国和苏联得出结论,核武器扩散到其他国家对它们双方都构成威胁,并最终面临核混乱的风险。他们带来了现在被称为不扩散制度的东西,其核心是 1968 年的《核不扩散条约》,通过该条约,如今有 186 个国家承诺不发展自己的核武库。
控制人工智能
在当前关于遏制人工智能的方法的提案中,人们可以听到过去许多回声。亿万富翁埃隆·马斯克要求暂停人工智能开发六个月,人工智能研究员埃利耶泽·尤德科夫斯基提议废除人工智能,心理学家加里·马库斯要求人工智能由全球政府机构控制,这些基本上重复了核时代失败的提议。原因是每项提议都要求主导国家服从其自身的主权。历史上从未有过一个大国担心竞争对手可能会应用一项新技术来威胁其生存和安全,而放弃为自己发展该技术。即使是像英国和法国这样的美国亲密盟友也选择发展自己的国家核能力,而不仅仅是依赖美国核保护伞。
为了将核历史的教训应用于解决当前挑战,必须认识到人工智能与核武器之间的显着差异。首先,虽然政府主导了核技术的开发,但私人企业家、技术专家和公司正在推动人工智能的发展。为微软、谷歌、亚马逊、Meta、OpenAI 和少数小型初创企业工作的科学家远远领先于政府的任何类似努力。此外,这些公司现在陷入了一场你死我活的斗争,这场斗争无疑正在推动创新,但代价高昂。当这些私人参与者在风险和回报之间进行权衡时,国家利益肯定会受到低估。
其次,人工智能是数字化的。核武器很难制造,需要复杂的设施来完成从铀浓缩到设计核武器的一切工作。产品是物理对象,因此可以计数。在可以验证对手在做什么的情况下,约束就会出现。人工智能代表了一个截然不同的挑战。它的主要演变发生在人类的思想中。它的适用性在实验室中演变,其部署难以观察。核武器是有形的;人工智能的本质是概念性的。
第三,人工智能正在以前所未有的速度发展和传播,这使得冗长的谈判变得不可能。军备控制历经数十年发展。人工智能的限制需要在人工智能内置于每个社会的安全结构之前发生——也就是说,在机器开始设定自己的目标之前,一些专家现在说这种情况可能在未来五年内发生。时间要求首先进行国家讨论和分析,然后进行国际讨论和分析,以及政府与私营部门之间关系的新动态。
幸运的是,已经开发出生成式人工智能并使美国成为领先的人工智能超级大国的几家大公司认识到,它们不仅对股东负责,而且对国家和整个人类负责。许多公司已经制定了自己的准则,用于在部署前评估风险、减少训练数据中的偏差以及限制其模型的危险用途。其他公司正在探索限制培训并对云计算提供商施加“了解您的客户”要求的方法。拜登政府 7 月宣布的一项重大举措是迈出了正确的一步,该举措让七家主要人工智能公司的领导人齐聚白宫,共同承诺制定准则,以确保“安全、保障和信任”。
正如我们其中一位,基辛格,在《人工智能时代》中指出的那样,迫切需要对人工智能不断演变的、往往引人注目的发明和应用进行系统研究。即使美国的分歧比内战以来任何时候都更加严重,人工智能不受限制的进步带来的风险的严重性还是要求政府和企业领导人立即采取行动。每家拥有训练新人工智能模型的大规模计算能力的公司以及每家开发新模型的公司或研究小组都应创建一个小组来分析其商业人工智能运营对人类和地缘政治的影响。
挑战是两党的,需要统一应对。本着这种精神,总统和国会应成立一个国家委员会,由私营部门、国会、军队和情报界杰出的无党派前领导人组成。该委员会应提议更具体的强制性保障措施。这些措施应包括持续评估训练人工智能模型(如 GPT-4)所需的大规模计算能力的要求,以及在公司发布新模型之前,对该模型进行极端风险压力测试。尽管制定规则的任务将很艰巨,但委员会将以国家人工智能安全委员会为榜样。其于 2021 年发布的建议为美国军方和美国情报机构在中国的人工智能竞争中进行的举措提供了动力和方向。
两个人工智能超级大国
即使在这个早期阶段,当美国仍在国内创建其自身的人工智能治理框架时,与世界上唯一其他的人工智能超级大国进行认真对话还为时不早。中国科技领域的国家冠军——百度(该国顶级搜索引擎)、字节跳动(TikTok 的创建者)、腾讯(微信的制造商)和阿里巴巴(电子商务的领导者)——正在构建 ChatGPT 专有的中文类比,尽管中国政治制度对人工智能提出了特别的困难。虽然中国在制造先进半导体方面仍落后,但它拥有在不久的将来继续前进的必要条件。
因此,拜登和习近平应在不久的将来会面,就人工智能军备控制进行私人会谈。旧金山的 11 月亚太经济合作会议提供了这样的机会。每位领导人都应讨论他个人如何评估人工智能带来的风险,他的国家正在做些什么来防止构成灾难性风险的应用,以及他的国家如何确保国内公司不输出风险。为了为他们下一轮讨论提供信息,他们应该创建一个由美国和中国人工智能科学家以及其他已经思考过这些发展的影响的人组成的咨询小组。这种方法将以其他领域的现有二轨外交为蓝本,在这些领域,小组由因其判断力和公正性而被选中的个人组成,尽管他们并未得到政府的正式认可。从我们与两国政府主要科学家的讨论中,我们确信这可能是一次高效的讨论。
美国和中国关于该议程的讨论和行动将只构成新兴全球人工智能对话的一部分,其中包括英国将于 11 月举办的人工智能安全峰会以及联合国正在进行的对话。由于每个国家都将寻求利用人工智能来提高其公民的生活质量,同时确保其自身社会的安全,因此从长远来看,需要建立全球人工智能秩序。这项工作应从国家努力开始,以防止人工智能最危险和潜在的灾难性后果。这些举措应辅以参与开发大型人工智能模型的各个国家的科学家与此处提议的国家委员会成员之间的对话。最初在人工智能计划先进的国家之间进行的正式政府谈判应寻求建立一个国际框架,以及一个与国际原子能机构相当的国际机构。
如果拜登、习近平和其他世界领导人像他们的前辈在几十年前应对核威胁时那样,立即采取行动应对人工智能带来的挑战,他们会同样成功吗?从更广阔的历史背景和当今日益严重的两极分化来看,很难乐观。尽管如此,我们现在已经迎来了核大国之间和平相处的 78 年这一光辉事实,应该激励每个人掌握我们人工智能未来的革命性和不可避免的挑战。