原标题:
和大语言模型(LLM)交互,我们总会隐约觉得它们可能真的有意识。然而,从神经科学家们的视角来看,这种观点似乎很难站得住脚。
最近,一篇发表于Cell子刊Trends in Neurosciences的论文中,三位分别来自计算机科学、生物学和神经科学的学者深层剖析了“人工智能能否产生意识?”这个问题。
从结论上看,他们一致认为:LLM在目前的形式下不可能具有意识。这么斩钉截铁的观点是怎么来的呢?来看他们的具体阐述。
▷图源:Cell
LLM 与意识
长期以来,人们一直在追问,哪些动物具有意识,以及除了动物之外还有哪些实体拥有意识。最近LLM的出现为这个问题带来了全新的视角。它向我们展现了自己精湛的交谈能力(这是人类具有意识的一种表现),也使我们对“理解力”、“智能”和“意识”三个概念开始重新定义和思考。
LLM是拥有数十亿连接权重的复杂多层人工神经网络,这些权重通过数百亿字的文本数据进行训练,这其中也包括人类之间的自然语言对话。通过文字提问,用户会被引入一个令人着迷的模拟语境中。如果你肯花时间使用这些系统,就很难不被其网络内部所展现出来的深度和质量所震撼。问它一个问题,它的回答往往与一个具有意识的个体能产生的回答微妙的相似。因此,作为一个有洞察力、有意识的个人,我们就很容易得出结论:我所接收到的回答是由一个同样具有“意识”的个体产生的,这个有“意识”的个体既能够思考、感受、推理,还颇具经验。
基于这类“图灵测试”结果,我们不禁要问,LLM是否已经具有意识,抑或是即将拥有意识?然而,这个问题反过来又将引出一系列的道德困境,例如继续开发在“意识”觉醒边缘反复徘徊的LLM是否合乎伦理?在当今神经科学界,人们并不普遍接受LLM具有“意识”这一观点,但随着人工智能系统能力的不断提升,关于该观点的讨论不可避免地又重新被摆上台面。此外,各大新闻媒体也在广泛讨论这一问题,促使着神经科学家们从自己专业的角度对这一问题进行客观的正反解读。
关于LLM具有潜在意识的观点往往会得到一类重要依据的支持,那就是LLM的架构在很大程度上受到了大脑特征的启发(图1),而大脑是我们目前唯一能自信地将其归因于“有意识”的对象。尽管早期的人工神经网络是以大脑皮层的简化版为基础来设计的,而现代的LLM经过高度工程化,并根据特定目的进行了调整,不再保留与已知大脑结构的深层同源性。事实上,许多让LLM在计算上强大的通路特征(图1)与我们目前认为在哺乳动物的意识产生和塑造中具有因果力的系统有着截然不同的架构。例如,与意识产生相关的许多神经科学理论认为,丘脑-皮质系统与觉醒系统在意识处理中发挥了核心作用,然而,现代LLM并不具备这两大系统。
图1:哺乳动物大脑和大型语言模型之间的宏观拓扑差异 图源:Trends in Neurosciences
这时有人可能会问,为什么LLM的架构要模仿大脑的特征,这一点有那么重要吗?
在我们看来,主要原因是:我们目前只能确定一种意识的存在,它来自嵌入复杂身体的大脑。有人可能认为,从严格意义上说,这个论点可能要进一步缩减到仅涉及人类,尽管许多被认为对主观意识发挥重要作用的系统级特征在整个生物谱系上普遍存在,一直延伸到哺乳动物,甚至是无脊椎动物。
话说回来,让我们首先从“意识”的确切含义开始。然后,我们将提出三个反对当前人工智能系统具有或未来将很快具有意识的观点的论点:
1. 意识与对生物体有意义的感觉流相关联;
2. 在哺乳动物大脑中,意识得到高度相互连接的丘脑-皮质系统的支持;
3. 意识可能与生物体系的复杂生物组织密不可分。
意识是什么?
意识是一个复杂的概念,其定义一直存在争议。在人类彼此能交流互动的背景下,交流对话能力是评估一个人是否具有意识的本能要素。
与LLM基于语言的互动对话常常是在培养一种直观的感受,这也是用于判断LLM是否可能具有意识的起点。然而,尽管LLM的交互式对话能力非常出色,但这并不能达到具有意识的正式客观的衡量标准,只是其具有智能的初步证据。
LLM的出现使得我们需要重新评估一个人是否能够直接从与他人的言语互动中产生意识。因此,一种新的观点认为,我们需要重新制定类人能力和类人特征的评判标准。
“意识”一词往往具有不同的含义。例如,神经病学家经常提到的“意识水平”,即首先评估一个人是否具有意识,再以一种更精细的方式评估意识的层次或特定状态。相比而言,心理学家则更关注意识的内容:即个人内心世界的具体经验、记忆和思想。此外,意识的不同内容之间也有区别。我们的经验可以被描述为现象或体验性的(比方说,看到或闻到一个苹果,或者触摸到你的手臂),也可以是更抽象的形式(例如,我们如何想象、展望或操作概念记忆)。
关于人工智能系统是否具有意识这一问题,可以通过多种测试方式来回答:既可以重点关注意识的某些含义,也可以同时关注意识的所有含义。在下文中,我们主要关注现象意识,并探讨机器是否能够现象性地体验世界。
关于环境
生物体在感知外界世界的过程中能够被利用的部分被称为它的环境。例如,人类视网膜对波长380 nm – 740 nm的光有反应,即视网膜能够感知由蓝到红的光谱。如果没有外界技术辅助,人类就无法检测到该波长范围之外的红外光(>740 nm)或紫外光(<380 nm)。我们在听觉、体感觉、前庭觉方面也有类似的环境,即相应的听觉域(人类耳朵能够听到20 Hz –20000 Hz的声音)、体感域(人类可以区分距身体某些部位约1毫米范围内的刺激)和前庭域(人类半规管的3D结构互相连接为我们提供内在的平衡感)。同时,自然界的其它物种能够检测到电磁频谱其他波段的信号。例如,蜜蜂可以看到紫外线范围内的光,蛇除了可以检测到更传统的视觉信号外,还可以检测到红外辐射信号。
也就是说,不同动物的身体和大脑能够感知它们周围环境的敏感性不同。美国心理学家Gibson将生物体在特定的环境中的行动可能性称为“可供性”(随着互联网技术的渗透,可供性开始被用于解释数字技术在媒体实践和人类日常交往中的应用)。
按这么定义,那么LLM的环境是什么?LLM具有怎样的可供性?根据其算法设计的本质,LLM仅具有二进制编码模式,只能接收二进制信息输入,并进一步执行复杂的transformer结构中固有的网络算法,这构成了当今LLM的工作架构。虽然神经元尖峰发放也能够将传入的模拟信号编码为数字信号(即二进制信号),但传递到LLM的信息流是高度抽象的,这些高度抽象的信息流本身与外部世界并没有任何紧密的联系。被编码成一串字母的文本和语音根本无法与自然世界的动态复杂性相匹配,即LLM的环境(提供给它的二进制信息)与我们睁开眼睛或交流对话时进入大脑的信息以及随之而来的体验相比,具有本质区别。传统哲学论述强调了不同物种之间信息流的独特性(例如,人类与蝙蝠之间的区别)以及这些经验的现象学特征。我们认为,LLM获得的信息输入可能会表现出更显著的差异,虽然暂时还没有确切的方法来量化这种差异。
话虽如此,未来人工智能系统的输入将会不可阻挡地变得更加丰富。未来的LLM可以配备不同类型的输入,这能够与有意识的智能体每天能访问的信号类型(即自然世界的统计数据)更好地进行匹配。那么,未来人工智能系统的可用环境会比人类的环境范围更广吗?
在回答这一问题时,我们必须认识到人类的潜意识和意识体验不仅仅由感官输入决定。例如,想象当我们躺在一个浮箱中,尽管我们缺乏正常的感官体验,但我们仍然具有意识。这里强调了一个概念,即环境预设了一种固有的主观视角,也就是说,要从一个主体出发。同样,可供性取决于主体的内部性质,特别是主体的动机和目标。这意味着仅仅通过环境(LLM的输入数据)还不能够产生意识。因此,简单地向人工智能系统输入大量数据流并不能够使智能系统自身产生意识。
这一观点可能会促使我们重新思考意识科学中的一些基本假设。具体来说,随着人工智能系统逐步表现出越来越复杂的能力,研究者将不得不重新评估某些意识理论所提出的更基本的自我和与智能体相关的过程对于意识出现的必要性。
意识的“整合”
目前,学界已有许多关于意识的神经相关性研究,其中关于意识处理的神经环路有许多不同的理论。一些强调,意识是由密集的、高度连接的丘脑-皮质网络支撑的。丘脑-皮质网络包括皮质区域、皮质-皮质连接以及高级丘脑核团向皮质区域的发散投射。丘脑-皮质系统的这种特定结构支持循环和复杂的思想处理,这些思想处理是意识和意识整合的基础(即,尽管意识产生于不同的大脑区域,但意识是统一的)。然而,不同理论对实现意识整合的方式持有不同观点。
根据全局神经元工作空间理论(global neuronal workspace theory, GNW),意识依赖于由分布式额顶叶皮质系统构成的中央工作空间。这个工作空间整合了来自局部皮质处理器的信息,然后在全局范围内将其传递给所有的皮质局部处理器,全局传递将有意识和无意识过程区分开来。其它意识理论认为,意识整合是由其它神经过程来实现的。例如,神经元树突整合理论(dendritic integration theory, DIT)表明,意识整合是通过不同皮质区域之间的高频同步现象产生的,根据所涉及的皮质区域不同,这一现象可能涉及包括感知、认知或运动规划等在内的不同功能。
▷图2:基于神经元树突整合理论(DIT)的意识整合的神经结构 图源:Trends in Neurosciences
图注:在DIT理论(图2)中,研究人员认为全局意识整合同样取决于皮质第五层锥体神经元的局部整合,这种神经元是一种在丘脑-皮质和皮质环路中都占据中心地位的大型兴奋性神经元。这类神经元有两个主要结构(图2,橙色和红色圆柱体),分别处理完全不同类型的信息:基底结构(红色)处理外部基本信息,而顶端结构(橙色)处理内部生成的信息。根据DIT理论,在意识状态下,这两个结构相互耦合,允许信息通过丘脑-皮质和皮质-皮质环路流动,从而实现全系统信息的整合和意识产生。
值得注意的是,当今LLM和其他人工智能系统的架构都缺乏这些理论所强调的特征:现有LLM既没有等效的双结构锥体神经元,也没有集中的丘脑架构、全局工作空间或上升觉醒系统的多个特点。换句话说,现有人工智能系统缺少目前神经科学界所认为的支撑意识产生的大脑特征。尽管哺乳动物的大脑不是唯一能够支撑意识产生的结构,但来自神经生物学的证据表明,哺乳动物意识的形成是由非常具体的结构原理(即整合神经元和激发神经元之间的简单连接)所决定的。从拓扑结构上讲,现有人工智能系统的结构极其简单,这也是我们不认为现有人工智能系统具有现象意识的原因之一。
那么,未来的AI模型是否最终能够将许多意识理论视为核心的“整合”过程融入其中呢?针对这一问题,GNW理论所提出的“集成”概念提供了一个相对简单的实现方式。实际上,一些最近的人工智能系统已经融入了类似于由本地处理器共享的全局工作空间。由于全局传递的计算过程可以在人工智能系统中实现,因此根据该理论,采用该计算方式的人工智能系统将包含潜在意识的核心成分。
然而,如前所述,并不是所有的意识理论都认同这种整合方式就是意识产生的关键。例如,意识的整合信息理论认为,在典型的现代计算机上实现的基于软件的人工智能系统不可能具有意识,因为现代计算机没有适当的架构实现充分集成信息所需的因果推理能力。因此,我们将考虑第三种可能性,即意识在原则上是可以实现的,但它可能需要超出当前(也许是未来)人工智能系统的计算特异性水平。
意识是一个复杂的生物学过程
意识的产生不仅依赖于系统的架构。例如,当我们处于深度睡眠或麻醉状态时,丘脑-皮质系统的结构没有发生变化,但意识却消失了。即使在深度睡眠中,主要感觉区域的局部神经反应和伽马带活动也与有意识状态相似。这表明,意识依赖于特定的神经过程,但在有意识和无意识的大脑中这些神经过程是不同的。
为了阐明有意识与无意识处理之间的细节差异,让我们先回过头来看神经元树突整合理论(DIT)。DIT理论包含了与有意识和无意识处理的神经过程相关的一些神经生物学方面细微的差别。DIT理论提出,有意识和无意识处理之间的关键区别在于锥体细胞的两个区室结构的整合(图2)。如前所述,在有意识处理期间,这两个结构相互作用,从而使整个丘脑-皮质系统能够处理和整合复杂的信息。然而,在麻醉状态下,各种麻醉剂导致椎体神经元两个结构之间的功能解耦。换句话说,这些椎体神经元虽然在解剖学上是完整的,可以激发动作电位,但其树突整合能力在生理上受到严重限制,即自上而下的反馈信息不能影响处理过程。研究表明,这种树突耦合是由代谢型受体控制的,然而在计算模型和人工神经网络中该结构经常被忽视。此外,研究表明,在这种情况下,高级丘脑核团控制这种代谢型受体的活性。因此,特定的神经生物学过程可能负责在大脑中“开启”和“关闭”意识。这表明,哺乳动物大脑中经验的质量与其产生意识的潜在过程有着错综复杂的关系。
尽管这些理论依据足以令人信服,几乎可以肯定的是,和距离完全理解意识产生的神经过程的复杂性相比,这些知识仍然稍显苍白。我们目前对意识的解释依赖于全球工作空间、整合信息、循环处理、树突整合等理论,但真实意识产生的生物过程可能比当前这些理论所理解的要复杂得多。甚至很有可能目前用于构建意识研究讨论的抽象计算级思想可能完全没有考虑到解释意识所需的必要计算细节。
换言之,生物学是复杂的,我们目前对生物计算的理解是有限的(图3),因此也许我们缺乏正确的数学和实验工具来理解意识。
▷图2:基于神经元树突整合理论(DIT)的意识整合的神经结构 图源:Trends in Neurosciences
图注:在DIT理论(图2)中,研究人员认为全局意识整合同样取决于皮质第五层锥体神经元的局部整合,这种神经元是一种在丘脑-皮质和皮质环路中都占据中心地位的大型兴奋性神经元。这类神经元有两个主要结构(图2,橙色和红色圆柱体),分别处理完全不同类型的信息:基底结构(红色)处理外部基本信息,而顶端结构(橙色)处理内部生成的信息。根据DIT理论,在意识状态下,这两个结构相互耦合,允许信息通过丘脑-皮质和皮质-皮质环路流动,从而实现全系统信息的整合和意识产生。
为了更好的理解生物复杂性,需要强调上文描述的细胞和系统层面发生的生物过程必须发生于一个生物活体中,二者不可分割。活体生物不同于当今的机器和人工智能算法,因为它们能够在不同处理层次不断地进行自我维护。此外,生命系统有着多方面的进化和发展历史,它们的存在取决于它们在多个组织层面上的活动。意识与生命系统的组织有着错综复杂的联系。然而,值得注意的是,当今的计算机并不能够体现生命系统的这种组织复杂性(即系统的不同层次之间的相互作用)。这表明,现代人工智能算法没有任何组织层次上的约束,也无法像一个生命系统一样有效地工作。这意味着只要人工智能是基于软件的,它就可能不适合具有意识和智能。
生物复杂性的概念在细胞水平上也能够体现。生物神经元不只是一个可以用几行代码完全捕捉的抽象实体。相反,生物神经元具有多层次的组织,并依赖于神经元内部复杂的生物物理过程的进一步级联。以“克雷布斯循环”为例,它是细胞呼吸的基础,是维持细胞稳态的关键过程。细胞呼吸是一个关键的生物过程,使细胞能够将有机分子中储存的能量转化为细胞可以利用的能量形式。然而,这个过程不能被“压缩”到软件中,因为像细胞呼吸这样的生物物理过程需要基于真实的物理分子。当然,这也不意味着意识需要“克雷布斯循环”,而是强调理解意识的过程中可能涉及类似的挑战,即也许意识并不能从底层机制中被抽离出来。
然而,我们并不完全赞同意识根本无法由智能系统产生的说法,但却必须考虑意识与生命背后复杂的生物组织之间的相关性,捕捉意识本质的计算类型可能比我们目前理论所理解的要复杂得多(图3)。对意识进行“活体组织检查”并将其从组织中移除几乎是不可能的。这一观点与目前许多有关意识的理论相矛盾,这些理论认为意识可以在抽象的计算层面上产生。现在,这一假设需要根据现代人工智能系统进行更新了:为了充分理解意识,我们不能忽视在生命系统中观察到的跨尺度的相互依赖性和组织复杂性。
尽管人工智能系统在网络计算层面模仿了它们的生物对应物,但在这些系统中,已经抽象掉了生物过程中所有其他层面的处理,这些处理在大脑中与意识有着紧密的因果关系,因此,现有人工智能系统可能已经抽象掉了意识本身。这样一来,LLM和未来的人工智能系统可能将被困在无止境的模拟意识特征,但却没有任何现象意识可言。如果意识的确与这些其他层次的处理有关,或者与它们在不同尺度之间的相互作用有关,那么我们离机器产生意识的可能性还很远。
总结
在这里,我们从神经科学的角度对LLM和未来的人工智能系统中意识的可能性进行了探讨。尽管LLM颇具吸引力,但它们并不具有意识,并且不会在未来较短的时间里具有意识。
首先,我们说明了哺乳动物的环境(它们可以感知的外部世界的“一小部分”)与LLM高度贫乏和有限的环境之间的巨大差异。其次,我们认为,LLM的拓扑结构虽然非常复杂,但在经验上与哺乳动物意识相关环路的神经生物学细节有很大不同,因此没有充分的理由认为LLM能够产生现象意识(图1)。目前我们还不可能将意识从生物组织复杂性中抽象出来,这种组织复杂性是生命系统固有的,但显然在人工智能系统中却并不存在。总的来说,以上三个关键点使得LLM在目前的形式下不可能具有意识。它们仅模仿了用来描述意识体验丰富性的人类自然语言交流的特征。
通过本文,我们希望所提出的观点能够产生一些积极的影响与思考(见尚未解决的追问),并不仅代表一种反对意见。首先,目前对LLM的感知能力在伦理层面潜在的担忧更多是假设的而非真实的。此外,我们相信,对LLM和哺乳动物大脑拓扑结构的异同的深入理解,能够推进机器学习和神经科学的进步。我们也希望通过模仿大脑组织的特征和学习简单的分布式系统如何处理复杂的信息流来推动机器学习和神经科学界的进展。出于这些原因,我们乐观地认为,人工智能研究人员和神经科学家之间未来的合作能够促进对意识更加深入的理解。
尚未解决的追问:
1. LLM和人工智能中的意识评估通常依赖于基于语言的测试来检测意识。是否有可能仅基于语言(即文本)来评估意识?是否有更进一步的评判特征可以帮助判断人工系统是否具有意识?
2. 哺乳动物意识的神经基础与丘脑-皮质系统有关。如何在人工智能中实现丘脑-皮质系统?哪些特定的功能和任务将受益于类似丘脑-皮质的系统?
3. 上升觉醒系统在生物体意识产生方面也起着至关重要的作用,其在神经动力学的塑造方面发挥着复杂的、多方面的作用。人工智能需要在多大程度上模仿这些不同的过程,才能获得上升觉醒系统的计算优势?
4. 生物细节可以增强人工智能系统的能力吗?除了丘脑-皮质系统外,树突在本文讨论的一些意识理论中起着关键作用。树突只是增加生物神经网络计算复杂性/效率的一个因素,还是还有更多作用?
5. 生命系统的组织复杂性与意识有关吗?生命系统由不同层次的处理过程组成,这些过程相互作用。生命系统的组织复杂性能否得到更完整详细的解释?是否需要新的数学框架来处理这样的系统,以更多地阐明意识意识产生的生物过程?
6. 一些理论表明,意识和能动性是密不可分的。要理解意识是如何从生物活动中产生的,需要先理解能动性吗?