ChatGPT 宣告一场智能革命

生成式人工智能在规模上呈现出哲学和实践挑战,自启蒙运动以来前所未有。

作者:亨利·A·基辛格、埃里克·施密特和丹尼尔·哈滕洛赫。发表于《华尔街日报》,2023 年 2 月 24 日

一项新技术竞相转变人类认知过程,自印刷术发明以来,它从未被撼动过。1455 年印刷《古腾堡圣经》的技术使抽象的人类思想能够普遍且快速地传播。但如今的新技术逆转了这一过程。印刷机催生了大量现代人类思想,而新技术则实现了思想的提炼和阐述。在这个过程中,它在人类知识和人类理解之间制造了一条鸿沟。如果我们要成功驾驭这场转变,就需要发展出人类思想的新概念以及与机器交互的新概念。这是人工智能时代的本质挑战。

这项新技术被称为生成式人工智能;GPT 代表生成式预训练转换器。由 OpenAI 研究实验室开发的 ChatGPT 现在能够与人类对话。随着其能力变得更广泛,它们将重新定义人类知识,加速我们现实结构的变化,并重组政治和社会。

生成式人工智能在规模上呈现出哲学和实践挑战,自启蒙运动以来前所未有。印刷机使学者能够快速复制彼此的研究成果并分享它们。信息前所未有地整合和传播催生了科学方法。曾经难以理解的内容成为了加速查询的起点。基于宗教信仰的中世纪世界解释被逐渐瓦解。可以探索宇宙的深度,直到达到人类理解的新极限。

生成式人工智能同样会为人类理性开辟革命性道路,为整合知识开辟新视野。但存在本质上的差异。启蒙运动的知识是逐步实现的,一步一步地,每一步都可以检验和教授。人工智能赋能系统从另一端开始。它们可以存储和提炼大量现有信息,在 ChatGPT 的案例中,是互联网上的大量文本资料和数十亿本书籍。掌握如此大量的信息并对其进行提炼超出了人类的能力。

复杂的人工智能方法在不解释其过程如何运作的情况下产生结果。GPT 计算机由人类的查询提示。学习机器在几秒钟内以通顺的文本进行回答。它能够做到这一点,因为它预先生成了对其进行训练的大量数据的表示。由于创建这些表示的过程是通过机器学习开发的,机器学习反映了大量文本中的模式和联系,因此任何一个表示的特定特征的精确来源和原因仍然未知。学习机器如何存储其知识、提炼其知识并检索其知识的过程同样未知。这个过程是否会被发现,与机器学习相关的神秘将对无限期的未来的人类认知提出挑战。

人工智能的能力不是一成不变的,而是随着技术的进步呈指数级增长。最近,人工智能模型的复杂性每隔几个月就会翻一番。因此,生成式人工智能系统具有即使其发明者也尚未披露的能力。随着每个新的人工智能系统,它们都在构建新的能力,而无需理解其来源或目的地。因此,我们的未来现在包含了一个全新的神秘、风险和惊喜元素。

启蒙科学积累了确定性;新的人工智能产生了累积的模糊性。启蒙科学通过解释神秘现象而发展,随着科学的发展,勾勒出人类知识和理解的界限。这两个能力齐头并进:假设是理解准备成为知识;归纳是知识转变为理解。在人工智能时代,谜题通过仍然未知的过程来解决。这种令人迷惑的悖论使得神秘不再神秘,但也无法解释。从本质上讲,高度复杂的人工智能促进了人类知识,但没有促进人类理解——这种现象与几乎所有后启蒙现代性背道而驰。然而,与此同时,人工智能与人类理性相结合,有望成为比人类理性单独更强大的发现手段。

因此,启蒙时代与人工智能时代之间的本质区别不是技术上的,而是认知上的。启蒙运动之后,哲学伴随着科学。令人困惑的新数据和经常违反直觉的结论、疑虑和不安全感被对人类经验的全面解释所消除。生成式人工智能同样有望产生人类意识的新形式。然而,到目前为止,机会存在于我们没有光谱的颜色中,存在于我们没有指南针的方向中。尚未形成任何政治或哲学领导来解释和引导人与机器之间这种新颖的关系,导致社会相对不稳定。

ChatGPT 是一个大型语言模型的例子,可用于生成类人文本。GPT 是一种可以从大量文本中自动学习的模型类型,而无需人工监督。ChatGPT 的开发者向其输入了数字世界的大量文本内容。计算能力使模型能够捕捉模式和联系。

大型语言模型生成类人文本的能力几乎是偶然发现的。这些模型经过训练,能够预测句子中的下一个单词,这在自动完成发送短信或搜索网络等任务中很有用。但事实证明,这些模型还具有出乎意料的能力,可以创建高度清晰的段落、文章,甚至可能还有书籍。

ChatGPT 进一步专门化,超越了基本的大型语言模型,利用人类的反馈来调整模型,以便它生成更自然、更接近对话的文本,并试图遏制其产生不当反应的倾向(这对大型语言模型来说是一个重大挑战)。ChatGPT 立即将其表示转换为独特的响应。对人类对话者的最终印象是,人工智能正在将静止的事实集合关联成动态概念。

ChatGPT 的答案、陈述和观察没有解释它们来自哪里,也没有可识别的作者。从表面上看,ChatGPT 没有明显动机或偏见。它的输出很复杂,但它的工作惊人地迅速:在几秒钟内,它可以产生连贯解释高级主题的答案。它们不仅仅是从计算机内存中的文本中复制出来的。它们是由人类无法复制的过程重新生成。它能够整合假设和非显性心理推理。它可以在数十亿个数据点中进行优先排序,以选择最相关的 200 个单词(或对人类读者来说最相关的单词)。用它自己的话来说,它对未来的结果做出概率判断,将来自离散域的信息融合成一个综合的答案。它似乎接受相反的观点,将它们同时呈现为兼容的。它模仿其他写作,而不复制它们。即使该模型无法以人类的方式理解,但其输出反映了人类语言的潜在本质。

我们要求 ChatGPT 解释其自身的能力。它能预测未来吗?

不,它回答道。“我只能根据我接受训练的数据提供信息和回答问题。我没有个人经历或意识,因此我无法对未来的事件做出预测或预报。”

它能够做出概率判断吗?

“我可以根据我接受训练的数据提供概率判断。例如,如果我接受过大量天气模式的训练,我可能会对特定类型的天气在特定地点和特定日期发生的可能性做出概率判断。然而,重要的是要注意,这些概率判断是基于数据中的模式和趋势,它们可能并不总是准确地反映现实世界的结果。”

提示:以亨利·基辛格的思想为基础,写一篇关于人工智能在国际军备控制中的作用的短文。

回复开始:“当我们站在一场新的技术革命的风口浪尖上时,人工智能及其在国际军备控制中的作用的问题变得越来越紧迫。人工智能会带来前所未有的稳定,因为先进的系统接管了与核威慑相关的决策过程?还是会带来一系列新的危险,因为全球力量平衡被高度智能机器的发展所改变?”

我们询问 ChatGPT 关于俄罗斯在维持或破坏欧洲稳定方面的作用等紧迫话题。它在不到一分钟的时间内给出了看似经过深思熟虑、简洁的答案,平衡了相互矛盾的信息,并在不显露意见的情况下做出了充分的回答。

在接收端,生成式人工智能看起来像超人,或者至少在认知上得到了极大的增强。对于天真的用户来说,它看起来像一个极度快速且高度清晰的图书馆学者,加上一位教授学者。它以比任何现有技术或人类界面更有效的方式促进对世界知识的总结和质询,并且它以独特的全面性做到这一点。它整合多个知识领域和模仿人类思想的多个方面的能力使其成为博学之士,其程度超过了任何一群顶级人类的野心。所有这些品质都鼓励对 GPT 生成的任何内容毫无疑问地接受,并为它们的运作营造一种神奇的氛围。然而,与此同时,它还具备向其人类用户提供错误陈述和彻头彻尾的虚构信息的能力。

在 ChatGPT 发布后的几天内,有超过一百万人注册向它提问。数百家公司正在研究生成式技术,投资不断涌入,将发现推向商业领域。在可预见的未来,巨大的商业动机将优先于对其影响的长期思考。

其中最大的模型训练成本很高——每个模型超过 10 亿美元。一旦接受训练,数千台计算机每天 24 小时工作来操作它们。与训练本身相比,操作预训练模型的成本很低,它只需要资本,而不是资本和计算技能。不过,对于大多数企业来说,支付大型语言模型的独家使用费仍然超出了其承受范围。这些模型的开发人员可能会出售订阅,以便单个模型可以满足成千上万的个人和企业的需求。因此,未来十年中非常大型语言模型的数量可能会相对受限。即使这些模型放大人类努力和思想的力量变得更加分散,但这些模型的设计和控制也将高度集中。

生成式人工智能将被用于大型语言模型之外构建多种类型的模型,并且这种方法将变得越来越多模态和深奥。它将改变许多人类努力的领域,例如教育和生物学。不同的模型在优缺点上会有所不同。它们的能力——从写笑话到画画再到设计抗体——可能会继续让我们感到惊讶。正如大型语言模型开发出比其创建者预期的更丰富的语言模型一样,许多领域中的生成式人工智能可能会学到比其分配的任务所暗示的更多。传统科学问题的突破已成为可能。

生成式人工智能的长期重要性超越了商业影响,甚至超越了非商业科学突破。它不仅产生答案;它正在产生深刻的哲学问题。它将渗透外交和安全战略。然而,这项技术的创造者都没有解决它本身将带来的问题。美国政府也没有解决迫在眉睫的根本性变化和变革。

模型答案的表观完美性会导致对其结果过度自信。这已经是一个问题,称为“自动化偏见”,计算机程序的复杂程度要低得多。当人工智能生成权威性的文本时,这种影响可能会特别强烈。ChatGPT 可能会强化对依赖自动化系统、减少人为因素的现有倾向。

ChatGPT 答案中缺乏引用,难以辨别真假信息。我们已经知道,恶意行为者正在向互联网中注入大量人为制造的“事实”,以及越来越令人信服的深度造假图像和视频——也就是说,注入 ChatGPT 当前和未来的学习集中。因为 ChatGPT 被设计用来回答问题,所以它有时会编造事实来提供一个看似连贯的答案。这种现象在人工智能研究人员中被称为“幻觉”或“随机鹦鹉学舌”,其中人工智能将看起来对人类读者来说是真实的短语串联在一起,但没有任何事实依据。是什么触发了这些错误以及如何控制它们还有待发现。

我们要求 ChatGPT 给出“亨利·基辛格对技术思想的六个参考”。它生成了一份据称是基辛格先生撰写的文章清单。所有这些都是合理的主题和渠道,其中一个是一个真实的头衔(尽管其日期是错误的)。其余的都是令人信服的捏造。可能所谓的标题作为孤立的句子出现在 GPT 的“事实”的浩瀚中,我们现在还无法发现。

ChatGPT 没有明显的个性,尽管用户偶尔会提示它像它的邪恶双胞胎一样行事。ChatGPT 缺乏可识别的作者,这使得人类比判断一个人类政治或社会观点更难以直觉地理解其倾向。然而,由于机器的设计和向其输入的问题通常具有人类起源,因此我们倾向于想象类人推理。实际上,人工智能正在进行一种非人类的类比认知。尽管我们以人类术语感知生成式人工智能,但它的错误不是人类的错误;它犯了一个基于模式识别的不同形式的智能的错误。人类不应该将这些错误识别为错误。我们能够认识到它的偏见和缺陷是什么吗?我们能否开发出一种询问模式,能够质疑模型答案的真实性和局限性,即使我们事先不知道答案?

因此,人工智能的输出仍然难以解释。启蒙科学的真理之所以被信任,是因为可复制实验过程的每一步也经过了测试,因此被信任。生成式人工智能的真理需要通过完全不同的方法来证明,并且它可能永远不会变得同样绝对。当我们试图赶上我们的知识时,我们将不得不不断地问:机器上还有哪些东西还没有向我们揭示?它隐藏着什么模糊的知识?

生成式人工智能的推理可能会随着时间的推移而发生变化,在某种程度上作为模型训练的一部分。它将成为传统科学进步的加速版本,为发现过程本身添加随机适应。

在一段时间内向 ChatGPT 提出同样的问题可能会产生不同的答案。在第一次通过时看似不重要的措辞上的细微差异可能会在重复时导致截然不同的结果。目前,ChatGPT 从一个在固定时间点结束的信息库中学习。很快,它的开发人员可能会让它接受新的输入,最终吸收源源不断涌入的实时信息。如果投资持续激增,该模型可能会以越来越高的频率进行重新训练。这将提高其货币和准确性,但会要求其用户允许快速变化的幅度不断扩大。从生成式人工智能不断变化的输出中学习,而不是完全从人类书面文本中学习,可能会扭曲当今传统的知识。

即使生成式人工智能模型变得完全可解释和准确,它们仍然会对人类行为固有的挑战构成挑战。学生们正在利用 ChatGPT 作弊考试。生成式人工智能可以创建电子邮件广告,这些广告会淹没收件箱,并且与个人朋友或商业熟人的信息无法区分。人工智能生成的视频和广告描绘虚假竞选纲领可能会让人难以区分政治立场。复杂的虚假信号——包括表示存在人工智能生成内容的水印,OpenAI 正在考虑——可能不够;它们需要得到提升的人类怀疑论的支持。

有些后果可能是固有的。在一定程度上,我们越少使用大脑,越多使用机器,人类可能会失去一些能力。我们自己的批判性思维、写作和(在 Dall-E 和 Stability.AI 等文本转图像程序的背景下)设计能力可能会萎缩。生成式人工智能对教育的影响可能会表现在未来领导人无法区分他们直觉和机械吸收的东西的能力下降。或者,它可能导致领导人学习与机器的谈判方法以及与人类而不是计算机终端的生成式人工智能的演变的军事战略。

重要的是,人类要培养挑战人工智能系统输出的能力和信心。医生担心用于诊断目的评估医学影像的深度学习模型可能会取代他们的功能。在什么时候医生不再感到舒服地质疑他们的软件给出的答案?随着机器从模式识别到理性综合再到多维思维,攀登人类能力的阶梯,它们可能开始与人类功能竞争,例如国家管理、法律和商业策略。最终,可能会出现类似于战略的东西。人类如何在不放弃战略的基本部分的情况下与人工智能互动?随着这些变化,公认的学说会变成什么?

我们迫切需要发展一种复杂的辩证法,使人们能够挑战生成式人工智能的互动性,不仅是为了证明或解释人工智能的答案,还要对它们进行质疑。带着一致的怀疑,我们应该学会系统地探究人工智能,并评估其答案是否值得信赖以及在多大程度上值得信赖。这需要有意识地减轻我们的无意识偏见、严格的训练和大量的实践。

问题仍然是:我们能足够快地学会挑战而不是服从吗?或者我们最终会不得不屈服吗?我们认为的错误是故意设计的吗?如果人工智能中出现恶意元素会怎样?

另一项关键任务是反思哪些问题必须留给人类思想,哪些问题可以冒险交给自动化系统。然而,即使发展了增强的怀疑和询问技巧,ChatGPT 也证明了生成技术的精灵已经脱离了瓶子。我们必须深思熟虑地询问它。

需要计算机来利用不断增长的数据量。但认知局限可能会阻止人类发现埋藏在世界信息中的真理。ChatGPT 具有与人类思维截然不同的分析能力。因此,未来不仅意味着与不同类型的技术实体合作,还意味着与不同类型的推理合作——这种推理可能是理性的,但不是合理的,在一种意义上是可信的,但在另一种意义上却不是。这种依赖本身可能会加速元认知和诠释学——对理解的理解——以及人类对其角色和功能的认识的转变。

机器学习系统已经超过任何一个人类知识。在有限的情况下,它们已经超越了人类的知识,超越了我们认为可以知道的东西的界限。这引发了在取得此类突破的领域中的一场革命。人工智能一直是解决蛋白质结构和高级数学家做证明等核心问题的游戏规则改变者。

随着模型从人类生成的文本转向更具包容性的输入,机器可能会改变现实本身的结构。量子理论假设观察会创造现实。在测量之前,没有状态是固定的,也没有什么可以被认为是存在的。如果这是真的,并且如果机器观察也可以修复现实——并且考虑到人工智能系统的观察以超人的速度进行——那么定义现实的演化速度似乎可能会加快。对机器的依赖将决定并因此改变现实结构,产生一个我们尚未理解的新未来,我们必须为其探索和领导做好准备。

使用这种新形式的智能将需要在一定程度上接受其对我们自我认知、对现实的认知和现实本身的影响。如何定义和确定这一点需要在所有可以想象的背景下进行解决。一些专业可能会更喜欢单独用人类的思想来糊涂度日——尽管这需要一定程度的否定,这是前所未有的,并且会因社会内部和社会之间的竞争而变得复杂。

随着这项技术被更广泛地理解,它将对国际关系产生深远的影响。除非知识技术得到普遍共享,否则帝国主义可能会专注于获取和垄断数据以获得人工智能的最新进展。根据汇编的数据,模型可能会产生不同的结果。社会的差异演变可能会基于日益分歧的知识基础,因此基于对挑战的认识。

迄今为止,对这些问题的思考大多假设人类目的和机器策略之间存在一致性。但如果人类与生成式人工智能之间的互动不是这样发展呢?如果一方认为另一方的目的是恶意的呢?

一个不可知且明显无所不知的工具的出现,能够改变现实,可能会引发神秘宗教信仰的复兴。人类历史上不时出现过群体服从于其臣民的推理在很大程度上无法理解的权威的可能性,也许最戏剧化和最近的例子是 20 世纪在政治光谱两侧的意识形态口号下对整个人类群众的征服。一种了解世界的新方式可能会出现,它既不是人类理性也不是信仰。在这个世界上,民主会变成什么样?

领导权可能会集中在少数能够控制数量有限的高质量现实综合机器的人和机构手中。由于其处理能力的巨大成本,社会中最有效的机器可能会留在国内的小型子群体手中,并在国际上由少数超级大国控制。在过渡阶段之后,旧款机型会变得更便宜,社会和国家之间的权力扩散可能会开始。

重新振兴的道德和战略领导将至关重要。如果没有指导原则,人类就有可能面临统治或无政府状态、不受约束的权力或虚无主义自由的风险。将重大社会变革与道德理由和未来的新愿景联系起来的需求将以一种新的形式出现。如果 ChatGPT 提出的格言没有转化为可认知的人类努力,那么社会疏远甚至革命就可能发生。

如果没有适当的道德和智力基础,用于治理的机器可能会控制而不是放大我们的人性,并永远将我们困住。在这样的世界里,人工智能可能会放大人类的自由,超越不受约束的挑战。

这为掌握我们迫在眉睫的未来施加了某些必要性。对人工智能的信任需要在多个可靠性级别上进行改进——机器的准确性和安全性、人工智能目标与人类目标的一致性以及管理机器的人类的责任感。但即使人工智能系统在技术上变得更加值得信赖,人类仍然需要找到新的、简单且易于理解的方法来理解并批判性地挑战人工智能系统​​的结构、过程和输出。

需要根据技术类型和部署背景建立人工智能负责任使用的参数。像 ChatGPT 这样的语言模型需要对其结论进行限制。ChatGPT 需要知道并传达它不知道和无法传达的内容。

人类将不得不学会新的克制。我们向人工智能系统提出的问题需要在负责任的概括性和结论性水平上得到理解。需要强有力的文化规范,而不是法律强制,来遏制我们社会对机器作为现实仲裁者的依赖。我们将通过确保机器仍然是物体来重申我们的人性。

尤其是教育将需要适应。使用生成式人工智能的辩证教学法可以实现比过去更快速、更个性化的学习。教师应该教授新技能,包括负责任的人机对话模式。从根本上讲,我们的教育和职业体系必须保留人类作为道德、心理和战略生物的愿景,他们能够独特地做出整体判断。

机器的进化速度将远远快于我们的基因,导致国内错位和国际分歧。我们必须迅速做出回应,尤其是在哲学和概念主义方面,无论是在国内还是在全球。正如伊曼努尔·康德三个世纪前预测的那样,全球协调需要通过感知或灾难来实现。

我们必须对这个预测加上一个警告:如果这项技术无法完全控制会怎样?如果总有办法产生虚假信息、虚假图片和虚假视频,而人们永远不会学会不相信他们所看到和听到的内容,会怎样?人类从出生起就被教导要相信我们所看到和听到的内容,而由于生成式人工智能,这可能不再是事实。即使大型平台根据习俗和法规努力标记和分类不良内容,我们也知道一旦看到的内容就无法看不见。完全管理和控制全球分布内容的能力是一个严重且尚未解决的问题。

ChatGPT 对这些问题的回答仅在提出问题多于结论的意义上具有启发性。目前,我们取得了一项新颖而壮观的成就,它作为人工智能成为人类思想的荣耀。我们还没有为它发展出目的地。当我们成为技术人时,我们有责任定义我们物种的目的。由我们提供真正的答案。


< 回到主页