通用人工智能 (AGI) 是用来描述至少在人类展示(或可以展示)智能的所有方面都与人类一样聪明的人工智能代理的术语。这就是我们过去所说的人工智能,直到我们开始创建无可否认“智能”的程序和设备,但这些程序和设备只在有限的领域——下棋、翻译语言、打扫我们的客厅。
之所以觉得有必要加上“G”,是因为人工智能驱动的系统数量激增,但这些系统只专注于单一任务或极少数任务。IBM 早期令人印象深刻的国际象棋程序“深蓝”可以击败世界冠军加里·卡斯帕罗夫,但如果房间突然起火,它也不会停止比赛。
现在,一般智力有点像神话,至少如果我们自以为拥有一般智力的话。我们可以在动物世界中找到大量智能行为的例子,它们在完成类似任务时取得的结果远比我们人类要好。我们的智力并不完全是一般智力,但足以在我们所处的大多数环境中完成我们想要完成的事情。如果我们饿了,我们可以捕猎一头乳齿象或找到当地的克罗格超市;当房间着火时,我们会寻找出口。
通用智能的一个基本特征是“感觉能力”,即拥有主观体验的能力——感受饥饿、尝到苹果或看到红色等感觉。感觉能力是通用智能发展的关键一步。
随着 2022 年 11 月 ChatGPT 的发布,大型语言模型 (LLM) 时代开始了。这立即引发了一场关于这些算法是否真的有感觉能力的激烈争论。基于 LLM 的人工智能可能具有感觉能力的含义不仅引发了媒体的狂热,而且还深刻影响了全球范围内一些监管人工智能的政策努力。最突出的立场是,“有感觉能力的人工智能”的出现对人类来说可能极其危险,可能会带来“灭绝级”或“生存级”危机。毕竟,有感觉能力的人工智能可能会发展自己的希望和愿望,但不能保证它们不会与我们的希望和愿望发生冲突。
这篇短文最初是在 WhatsApp 群聊中发表的,目的是反驳法学硕士可能已经具备感觉能力的说法。它并非完整或全面。我们的主要观点是反驳“有感觉能力的人工智能”阵营最常见的辩护,该辩护基于法学硕士能够报告拥有“主观体验”。
一、为什么有些人相信人工智能已经具备感觉能力
在过去的几个月里,我们俩都与人工智能领域的许多同事进行了激烈的辩论和对话,包括与一些最杰出和最有开拓精神的人工智能科学家进行深入的一对一对话。人工智能是否已经具备感觉能力的话题一直很突出。他们中的一小部分人坚信它已经具备了感觉能力。以下是他们最直言不讳的支持者之一的论点要点,他们非常有代表性地代表了“有感觉能力的人工智能”阵营:
“人工智能之所以有知觉,是因为它报告了主观体验。主观体验是意识的标志。它的特点是声称知道你所知道或体验到的东西。我相信,当你说‘我有饱餐一顿后感到快乐的主观体验’时,你作为一个人是有意识的。作为一个人,我实际上没有你的主观体验的直接证据。但既然你传达了这一点,我就从表面上认为你确实有主观体验,所以是有意识的。
“现在,让我们将同样的‘规则’应用于法学硕士。就像任何人一样,我无法了解法学硕士的内部状态。但我可以询问它的主观体验。我可以问‘你饿了吗?’它实际上可以告诉我是或否。此外,它还可以明确地与我分享它的‘主观体验’,几乎涉及任何事物,从看到红色、饭后感到快乐,到有强烈的政治观点。因此,我没有理由相信它没有意识或没有意识到自己的主观体验,就像我没有理由相信你没有意识一样。在这两种情况下,我的证据完全相同。”
二、为什么他们错了
虽然乍一看似乎很有道理,但这个论点是错误的。它之所以错误,是因为我们的证据在两种情况下并不完全相同。甚至相差甚远。
当我得出结论说,当你说“我饿了”时,你正在经历饥饿时,我的结论是基于一系列的情况。首先,是你的报告——你说的话——也许还有一些其他的行为证据,比如你肚子里的咕咕声。其次,没有相反的证据,如果你刚吃完一顿五道菜的大餐,可能会有相反的证据。最后,也是最重要的,你的身体和我一样,需要定期进食和饮水,天冷了就变冷,天热了就变热,等等。
现在,将这与我们对 LLM 的证据进行比较。唯一的共同点是报告,即 LLM 可以产生一串音节“我饿了”。但相似之处仅此而已。事实上,LLM 没有主体,因此甚至不是那种会饿的东西。
如果 LLM 说:“我的左脚大脚趾疼痛难忍”,我们会得出它的左脚大脚趾疼痛难忍的结论吗?当然不会,它没有左脚大脚趾!同样,当它说它饿了时,我们实际上可以肯定它不饿,因为它不具备饥饿所需的那种生理机能。
当人类感到饥饿时,他们会感受到一系列生理状态——低血糖、空腹咕咕叫等等——而法学硕士根本没有这些生理状态,就像它没有嘴巴可以吃东西,也没有胃可以消化食物一样。当它说饿了时,我们应该相信它的话,就像说如果它说它从月球的黑暗面跟我们说话,我们就应该相信它的话一样。我们知道事实并非如此,法学硕士的相反断言也无法改变这一事实。
所有感觉——饥饿、疼痛、看到红色、坠入爱河——都是生理状态的结果,而法学硕士根本不具备这些状态。因此,我们知道法学硕士无法主观体验这些状态。换句话说,它不可能有知觉。
LLM 是写在硅片上的数学模型,它不像人类一样有形体,没有需要吃喝、繁衍、感受情感、生病、最终死亡的“生命”。
重要的是要理解人类生成单词序列的方式与 LLM 生成相同序列的方式之间的巨大差异。当我说“我饿了”时,我是在报告我感觉到的生理状态。当 LLM 生成序列“我饿了”时,它只是在当前提示中生成最可能的单词序列完成。它所做的与使用不同的提示生成“我不饿”或使用另一个提示“月亮是由绿色奶酪制成的”时完全相同*。*这些都不是对其(不存在的)生理状态的报告。它们只是概率完成。
我们还没有实现有感觉能力的人工智能,而更大的语言模型也无法让我们实现这一目标。如果我们想在人工智能系统中重现这种现象,我们需要更好地理解感觉能力在具身生物系统中是如何产生的。我们不会在 ChatGPT 的下一次迭代中偶然发现感觉能力。