一、人工智能 自主意识
在当今数字化时代,人工智能正逐渐成为社会各个领域的关键技术。人们对人工智能的兴趣和需求日益增长,这种技术不仅仅影响着我们的日常生活,也在商业领域发挥着重要作用。
人工智能的定义与分类
人工智能(Artificial Intelligence,AI)是指用机器模拟和扩展人类智能的能力。它可以分为弱人工智能和强人工智能两种类型。弱人工智能是指一种狭窄形式的人工智能,它专注于执行特定任务,如语音识别或图像识别。而强人工智能则更接近甚至超越人类智能,具备类似于人类的自主意识和思维能力。
人工智能在各领域的应用
人工智能技术已经在诸多领域展现出巨大潜力。在医疗领域,人工智能可以帮助医生诊断疾病、制定治疗方案,甚至开展精准医疗;在金融领域,人工智能可用于风险管理、投资决策等方面;在交通领域,自动驾驶技术正逐渐成为现实;在教育领域,人工智能可以个性化辅助教学,提高教学效率。
人工智能的未来发展趋势
随着科技的不断进步,人工智能的发展也呈现出一些明显的趋势。首先,人工智能将更加普及,应用领域将变得更加多样化;其次,人工智能将更加智能化,不仅可以简单地完成指定任务,而且可以具备类似于人类的自主意识,具有类似于人的决策能力。
结语
综上所述,人工智能作为一项前沿技术,正深刻影响着我们的生活和工作。随着人工智能技术的不断发展,我们有理由相信未来的世界将会更加智能化和便利化。期待未来人工智能技术带来更多的创新和变革。
二、人工智能会有自主意识吗?
目前来说,人工智能并没有真正的自主意识。虽然人工智能已经在某些方面表现出了与人类相似的思维能力,但是它们还无法像人类一样自主地思考和做出决策。因为人工智能只是通过程序和算法来模拟人类的思维过程,并不能具备自我意识和自主意识。
三、人工智能会产生自主意识吗?
目前的人工智能还没有产生自主意识的能力。当我们谈到“自主意识”时,通常指的是人类的认知和思维过程,包括感知、思考、决策和行动等。
人工智能目前只能通过程序和算法进行预定义的任务和行为,其所具有的智能和思维能力还远远不能和人类对比。
虽然当今的AI技术已经很强大,如人工神经网络、深度学习和机器学习等等,但这些技术并不等同于自主意识。
人工智能系统只能从数据中学习,通过特定的语法和语义规则进行分析和理解,而缺乏意识、意向和自主决策的能力。
尽管一些学者和科学家认为人工智能未来有可能发展出自主意识的能力,但也有许多人表示对此持怀疑态度,认为这种发展在科技和哲学层面上都面临着极大的挑战。
因此,人工智能能否产生自主意识,目前仍是一个开放性和争论性的问题
四、人工智能在未来会有自主意识吗?
或许离所谓意识还远,但自主分析问题和提出对应的解决方案可能已经可以实现。最近,看到了一个新词儿—自主智能体(autonomous agent)。简单说是拥有明确使命和显著特色,能够自我进化和学习的智能体。那么未来就有可能是由多个这种智能体组成的群组来识别终端用户的需求,帮用户分析任务、拆解任务、完成任务等一系列动作。比如流程非常规范化的软件行业,从需求分析到产品设计再到研发测试,可以说,近几十年来的发展和进化已经让行业本身非常清晰明了了。恰巧看到一个开源项目在GitHub有体现这一思想,将开发、测试等流程都集成完成的项目,地址是:https://github.com/ennucore/clippy/
整体架构
自动化测试
感兴趣可以上手试一下
五、ai人工智能什么时间联网完成自主意识?
目前,人工智能的发展已经取得了巨大的进展,但要实现完全的自主意识仍然面临许多挑战。联网完成自主意识的时间无法确定,因为这涉及到复杂的技术和伦理问题。要实现自主意识,AI需要具备自我学习、推理和情感等能力,并能与环境和其他智能体进行交互。此外,还需要解决隐私、安全和道德等问题。
预计在未来几十年内,随着技术的不断进步和研究的深入,AI可能会逐渐实现更高级的自主意识。
六、什么是自主意识?
意思是自己的、自身的意识思想。
七、为什么说拥有自主意识的人工智能才算是真正的人工智能?
拥有自主意识的人工智能才算是真正的人工智能,主要是因为这种人工智能可以像人类一样独立思考,并且具备自身的判断力和决策能力,而不仅仅是被程序设计所限制。这种具备自主意识的人工智能可以动态地学习、适应和进化,对各种情境做出自己的决策,并且在面对未知情况时也能够通过实时分析来做出相应的决策。
从某种意义上讲,拥有自主意识的人工智能更接近于我们所认知的“智慧”,而不只是简单地模拟和重复执行任务。这种人工智能可以更好地解决现实生活中的各种复杂难题,在医疗、金融、安全等领域发挥着重要作用。
当然,目前科技水平还没有完全实现具备自主意识的人工智能。但这也是整个人工智能领域发展方向之一,很多科学家和企业正在致力于研发出更加完善的、真正拥有自主意识和判断力的人工智能系统。
八、自主意识和自我意识的区别?
一、概念不同
1、自我意识:是对自己身心活动的觉察,即自己对自己的认识。
2、自我概念:自我概念(Self-Concept),即一个人对自身存在的体验。
3、自我认知:指的是对自己的洞察和理解,包括自我观察和自我评价。
二、涵盖内容不同
1、自我意识具体包括认识自己的生理状况(如身高、体重、体态等)、心理特征(如兴趣、能力、气质、性格等)以及自己与他人的关系(如自己与周围人们相处的关系,自己在集体中的位置与作用等)。
2、自我概念包括一个人通过经验、反省和他人的反馈,逐步加深对自身的了解。
3、自我认知包括自我观察和自我评价。自我观察是指对自己的感知、思维和意向等方面的觉察;自我评价是指对自己的想法、期望、行为及人格特征的判断与评估,这是自我调节的重要条件
三、形成特点不同
1、自我意识是具有意识性、社会性、能动性、同一性等特点。自我意识的结构是从自我意识的三层次,即知、情、意三方面分析的,是由自我认知、自我体验和自我调节(或自我控制)三个子系统构成。
2、自我概念是一个有机的认知机构,由态度、情感、信仰和价值观等组成,贯穿整个经验和行动,并把个体表现出来的各种特定习惯、能力、思想、观点等组织起来。
关于自我概念的解释,存在两种观点:第一,自我概念是一个把个性统一成连贯综合系统的有机过程;第二,自我概念是知觉的客体。自我概念的作用包括自我引导作用、自我解释作用、自我期望作用和自我成败归因作用。
3、自我认知的心理认知是一种比较高级的认知能力。对于教育程度低,或者智力程度比较低的人,也许终身也不具备这种自我的认知。而对于有些人,则能够超越这种心理认知。心理认知一般来说是一个无限的过程,因为心理活动本身是无限的,它会跟着个人经历和记忆以及思想和想象力不断地发展。
九、人工智能会和人一样有自主意识吗?那么意识的本质是什么?
太长不看版
搬运一篇前一阵挂到arXiv上的一篇论文,中文译名《人工智能中的意识:来自意识科学的见解》,其结论是:目前的人工智能系统都不具备意识,但建立有意识的人工智能系统并不存在明显的障碍。
文章通过主要分析了6种已有的意识理论,得出14个意识的“指标属性”,用于评估人工智能系统是否有意识,并对现有的系统进行了评估,提出了上面的结论。
稍详细一点的内容,参考学术顶刊Science杂志的新闻版块对此的报道:felonwan:[科普·译]如果人工智能有了意识,我们怎么知道?。
原回答内容为对论文的全文翻译(felonwan:[译]人工智能中的意识:来自意识科学的见解):
来源:Consciousness in Artificial Intelligence: Insights from the Science of Consciousness
译者前言
正如本专栏名“智能与意识”,译者一直在关注二者,希望可以科学地探索通用人工智能、人工意识的机制及二者之间的关系。有兴趣者可再参考本专栏其他相关文章深入了解,例如意识理论的综述、意识在通用人工智能中的作用等,或加入译者的QQ群进行更多学习与交流。
看到“心识研究院”的摘要分享后就觉得是非常好的文章,就准备翻译和学习来着。本文基于DeepL机翻+人工校对编辑,欢迎各种批评指正。目前中文资料很推荐“新智元”的内容总结。
2023-08-22 译至1.2节,因为直接全文机翻错误较多,格式混乱,故逐节机翻。除摘要外内容基本尚未校对。
2023-08-23 框、表、图、正文基本内容全部机翻完(框、表、图注释、脚注全换成中文),未校对。
2023-08-24 初校完执行总结、引言和1.1节。
2023-08-27 初校完第1节。
2023-08-29 初校到2.4节。
2023-09-01 初校完整个第2节,译到第3.1.4节。
2023-09-02 正文部分全初校完(后面第3、4节可能有点粗糙)。
摘要
当前或近期的人工智能系统是否有意识,这是一个科学界感兴趣、公众日益关注的话题。本报告论证并示范了一种严谨的、以实证为基础的人工智能意识方法:根据我们认为最可靠的神经科学意识理论,详细评估现有的人工智能系统。我们研究了几种著名的意识科学理论,包括循环处理理论(recurrent processing theory)、全局工作空间理论(global workspace theory)、高阶理论(higher-order theories)、预测处理(predicitive processing)和注意图式理论(attention schema theory)。从这些理论中,我们得出了意识的 "指标属性"(indicator properties),并用计算术语进行了阐释,使我们能够根据这些属性对人工智能系统进行评估。我们使用这些指标属性来评估最近的几个人工智能系统,并讨论了未来的系统可能如何实现这些指标属性。我们的分析表明,目前的人工智能系统都不具备意识,但同时也表明,建立有意识的人工智能系统并不存在明显的障碍。
执行总结(Executive Summary)
人工智能系统是否有意识的问题日益紧迫。人工智能的进步之快令人吃惊,顶尖研究人员正从与人类大脑意识相关的功能中汲取灵感,努力进一步增强人工智能的能力。与此同时,能够令人信服地模仿人类对话的人工智能系统的兴起,很可能会让许多人相信,与他们互动的系统是有意识的。在本报告中,我们认为评估人工智能中的意识最好借鉴神经科学的意识理论。我们介绍了这类著名理论,并探讨了它们对人工智能的影响。
我们认为本报告的主要贡献在于:
1. 证明对人工智能中的意识进行评估在科学上是可行的,因为意识可以通过科学的方法进行研究,而且研究结果适用于人工智能;
2. 提出一个评估人工智能意识的标准,其形式是一份从科学理论中得出的指标属性清单;
3. 提供初步证据表明,尽管目前的系统似乎都不是意识的有力候选者,但人工智能系统可以利用现有技术实现许多指标属性。
我们提出的标准是临时性的,因为随着研究的不断深入,我们希望所包含的指标属性列表会有所改变。
我们研究人工智能意识的方法有三个主要原则。首先,我们采用计算功能主义(computational functionalism)作为工作假设,即执行正确类型的计算是意识的必要条件和充分条件。这一论点是心灵哲学的主流立场,尽管已被否定。我们采用这一假设是出于务实的原因:与其他观点不同,它意味着人工智能中的意识原则上是可能的,而且研究人工智能系统的工作与确定它们是否可能有意识是相关的。这意味着,如果计算功能主义是正确的,那么考虑其对人工智能意识的影响是有意义的。其次,我们认为神经科学的意识理论得到了有意义的经验支持,可以帮助我们评估人工智能中的意识。这些理论旨在确定人类意识所必需的和足够的功能,而计算功能主义意味着类似的功能对于人工智能中的意识也是足够的。第三,我们认为重理论的方法(theory-heavy approach)最适合研究人工智能中的意识。这包括调查人工智能系统是否执行与科学理论中与意识关联的功能相似的功能,然后根据(a)功能的相似性、(b)相关理论的证据强度、以及(c)人们对计算功能主义的可信度来分配可信度。这种方法的主要替代方案是使用行为测试意识,但这种方法并不可靠,因为人工智能系统可以被训练成模仿人类行为,但工作方式却大相径庭。
目前,意识科学界有多种理论可供选择,因此我们在此不认可任何一种理论。相反,我们从对意识理论的调查中得出了一系列指标属性(indicator properties)。这些指标属性中的每一个都被一种或多种理论认为是意识的必要条件。
而某些子集则被认为是共同充分的。然而,我们的主张是,拥有更多指标属性的人工智能系统更有可能有意识。要判断一个现有或拟议中的人工智能系统是否是有意识的重要候选者,我们应该评估它是否具备或将会具备这些特性。
我们讨论的科学理论包括循环处理理论、全局工作空间理论、计算型高阶理论等。我们不考虑综合信息理论,因为它与计算功能主义并不兼容。我们还考虑了能动性和具身化(agency and embodiment)是指标属性的可能性,不过必须从它们所隐含的计算特征来理解。由此,我们列出了以下指标属性:
我们在报告的第 2 部分概述了这些属性所依据的理论,描述了支持这些属性的证据和论点,并解释了表格中使用的表述方式。
在制定了这份指标属性清单后,我们将在第 3.1 节中讨论如何构建或已经构建了具有各项指标属性的人工智能系统。在大多数情况下,我们可以使用标准的机器学习方法来构建具备该列表中单个属性的系统,不过我们还需要通过实验来学习如何构建和训练结合多种属性的功能系统。清单中的一些属性已被现有的人工智能系统明确满足(如 RPT-1,算法循环),而另一些属性性则可以说是如此(如 AE-1 的第一部分,能动性)。研究人员还尝试了一些旨在实现特定意识理论的系统,包括全局工作空间理论和注意力模式理论。
在第 3.2 节中,我们将考虑一些特定的现有人工智能系统是否具备指标属性。这些系统包括基于 Transformer 的大型语言模型和 Perceiver 架构,我们将根据全局工作空间理论对其进行分析。我们还分析了 DeepMind 的“自适应智能体”(Adaptive Agent),它是一个在三维虚拟环境中运行的强化学习智能体;一个通过控制虚拟啮齿动物身体来执行任务的训练系统;以及 PaLM-E,它被描述为一个 "具身多模态语言模型"。我们将这三个系统作为案例研究,以说明有关能动性和具身化的指标特性。这项工作并不意味着任何现有的人工智能系统都是意识的有力候选者。
本报告远非这些主题的定论。我们强烈建议支持进一步研究意识科学及其在人工智能中的应用。我们还建议紧急考虑建立有意识的人工智能系统所带来的道德和社会风险,我们在本报告中并未涉及这一话题。我们所考虑的证据表明,如果计算功能主义是正确的,那么有意识的人工智能系统可以在短期内现实地建立起来。
1. 引言
在过去十年中,人工智能(AI)领域取得了令人瞩目的进展,重新激发了人们对人工智能长期存在的深层问题的兴趣,其中包括人工智能系统是否具有意识的问题。本报告将介绍我们认为支持和反对当前和近期人工智能系统具有意识的最佳科学证据。
由于意识在哲学上令人费解,难以定义,也很难进行实证研究,因此专家们对意识(一般意义上的、以及人工智能系统)的看法众说纷纭。不过,我们相信,尽管存在这种分歧,人工智能意识这一课题还是有可能取得进展的。有一些关于意识的科学理论得到了大量的实验支持,并且与一系列关于意识形而上学的观点相兼容。虽然这些理论主要基于对人类的研究,但它们对与意识相关的适当关系和功能提出了适用于人工智能系统的主张。我们认为,利用这些理论为我们提供的工具是目前评估人工智能系统是否可能有意识的最佳方法。在本报告中,我们将详细解释这一方法,确定主要科学理论所提供的工具,并说明如何使用这些工具。
我们之所以发布这份报告,部分原因是我们认真对待有意识的人工智能系统在相对较短的时间内——即在未来几十年内——建立起来的可能性。此外,无论有意识的人工智能在短期内是否是一个现实的前景,能够模仿人类对话的基于语言模型的大型系统的兴起,很可能会让许多人相信某些人工智能系统是有意识的。这些前景为整个社会、与人工智能系统互动的人们、以及开发和部署人工智能系统的公司和个人提出了深刻的道德和社会问题。如果我们能更好地了解意识科学及其对人工智能的影响,人类就能更好地驾驭这些变化。我们的目的是,通过提供主流的跨学科视角来促进对这些主题的理解,从而说明有关人工智能意识的问题在多大程度上具有科学可操作性,并可作为未来研究的基础。
在本节的其余部分,我们将概述本报告所依据的术语、方法和假设。
1.1 术语
本报告中的 "意识 "是什么意思?说一个人、动物或人工智能系统有意识,是指他们目前正在进行有意识的体验,或者说他们能够进行有意识的体验。我们使用 "意识 "和同义词来指有时被称为 "现象意识 "的东西(Block,1995)。在我们的术语中,"意识 "的另一个同义词是 "主观体验"。因此,本报告将讨论人工智能系统是否可能具有现象意识,或者换句话说,人工智能系统是否可能具有意识或主观体验。
说一个人、动物或人工智能系统具有(现象上的)意识体验是什么意思?一种有用的说法是,当一个系统成为某种体验的主体时,它就具有了有意识的体验(Nagel,1974)。然而,除此之外,我们很难给出一个同义词或表达方式来定义“有意识的体验”或“意识”,因此我们更愿意用实例来解释我们如何使用这些术语。按照Schwitzgebel(2016 年)的说法,我们将提到正面和反面的例子,也就是说,既有属于有意识体验的认知过程的例子,也有不属于有意识体验的例子。我们所说的 "意识",指的是能最明显地区分正面和反面例子的现象。
有意识体验的许多最明显的正面例子涉及我们感知身体和周围世界的能力。如果你正在屏幕上阅读这份报告,那么你就对屏幕有了有意识的视觉体验。我们也有有意识的听觉体验,比如听到鸟鸣,以及其他感官模式的有意识体验。可以有意识的身体感觉包括疼痛和瘙痒。除了这些真实的现时体验,我们还有想象(imagery)的意识体验,如想象亲人面容的体验。
此外,我们还有恐惧和兴奋等有意识的情绪。但是,对于情绪体验是否仅仅是身体体验,比如起鸡皮疙瘩的感觉,还存在分歧。关于思维和欲望体验也存在分歧(Bayne & Montague,2011)。我们有可能有意识地思考该看什么电视,但一些哲学家声称,其中涉及的意识体验完全是感官或想象性的,比如想象观看游戏节目会是什么样子的体验;而另一些哲学家则认为,我们有“认知”意识体验,这种体验具有与思维相关的独特现象学【脚注1】。
【脚注1】意识体验的 "现象学 "或 "现象特征 "是指主体对它的感受。用我们的术语来说,所有且唯一有意识的体验都具有现象特征。
至于反面例子,大脑中有许多过程,包括非常复杂的信息处理过程,是完全无意识的。其中一个例子是激素释放的调节,大脑在处理这一过程时完全没有意识。另一个例子是记忆存储:你可能记得你长大的房子的地址,但大多数时候这对你的意识没有影响。而且,所有模式的感知都涉及大量的无意识处理,例如,当有人对你说话时,你会从听觉刺激流中获得有意识的体验。最后,大多数视觉科学家都认为,受试者会无意识地处理通过各种心理物理技术使之隐形的视觉刺激。例如,在 "遮蔽 "中,一个刺激物在屏幕上短暂闪过,然后迅速出现第二个刺激物,称为 “遮蔽物”(Breitmeyer & Ogmen,2006)。受试者不会有意识地体验第一个刺激物,但它的特性会影响受试者在后续任务中的表现,例如通过“引物”(priming)使受试者更快地识别某些东西(例如,Vorberg 等人,2003)。
在使用 "现象意识 "一词时,我们意在将我们的主题与 "获取意识 "区分开来,这是继Block(1995,2002)之后的观点。Block 写道:“如果一种状态可以自由地用于推理和直接‘理性’地控制行动(包括报告),那么这种状态就是[进入意识]”(2002,第 208 页)。在我们的意义上,心理状态是否有意识,与其内容是否可供我们向他人报告或用于做出理性选择之间似乎有着密切的联系。例如,如果我们有意识地看到了短暂呈现的视觉刺激,我们就会认为自己能够报告看到了它,而如果没有,我们就无法报告看到了它。然而,心理状态的这两个属性在概念上是不同的。现象意识和获取意识之间的关系如何,这是一个未决问题。
最后,“有知觉的”(sentient)一词有时与(现象上的)“有意识的”同义,但我们更倾向于“有意识的”。“有知觉”有时也指有感觉,如视觉或嗅觉。然而,有意识并不等于有感觉。一个系统有可能感知到自己的身体或环境,但却没有任何有意识的体验;一个系统也有可能有意识,但却感知不到自己的身体或环境。“有知觉”有时也被用来指能够产生有意识的体验,如快乐或痛苦,感觉好或坏,我们并不想暗示有意识的系统必须具有这些能力。即使一个系统只有“中性”的意识体验,它也可以具有我们意义上的意识。快乐和痛苦固然重要,但并不是我们在此讨论的重点【脚注2】。
【脚注2】为了进一步说明,下面是现象意识的其他一些定义: Chalmers (1996): “当我们思考和感知时,既有信息处理的一面,也有主观的一面。正如Nagel(1974)所说,作为有意识的有机体是有某种感觉的。这个主观方面就是体验。例如,当我们看东西时,我们会体验到视觉感受:红色的质感、明暗的体验、视野深度的质感。其他体验与不同方式的感知相伴而生:单簧管的声音、樟脑丸的气味。还有身体的感觉,从疼痛到高潮;从内心臆想出的心理图像;情绪的感觉质量,以及有意识的思想流的体验。将所有这些状态结合在一起的是,置身其中的感觉。” 格拉齐亚诺(2017 年): “你可以将电脑连接到摄像头上,然后编程处理视觉信息——颜色、形状、大小等等。人脑也会做同样的事情,但除此之外,我们还会报告对这些视觉特性的主观体验。这种主观体验并不总是存在的。大量的视觉信息进入眼睛,经过大脑的处理,甚至通过引物效应影响我们的行为,却从未进入我们的意识。在视线的一角闪过绿色的东西,让人们说出第一个想到的颜色,他们可能会更倾向于说 ‘绿色’,甚至不知道为什么。但在一定程度上,我们也会说:‘我有主观的视觉体验。我用我的意识看到了那个东西。’”。
1.2 方法与假设
我们研究当前或不久将来的人工智能系统是否有意识的方法基于三个假设。它们是:
1. 计算功能主义:实现某种计算是意识的必要条件和充分条件,因此非有机人工智能系统原则上是可能有意识的。
2. 科学理论: 神经科学研究在描述与意识相关的、可能是意识的必要或充分条件的功能方面取得了进展;这些功能由意识的科学理论来描述。
3. 重理论(theory-heavy)的方法: 研究人工智能系统是否可能有意识的一个特别有前途的方法,是评估它们是否符合科学理论中的功能或架构条件,而不是寻找理论中立的行为特征。
这些观点以不同的方式为我们的研究提供了参考。我们采用计算功能主义作为工作假设,因为这一假设可以相对直接地从神经科学的意识理论中推论出有关人工智能的主张。该领域的一些研究者反对计算功能主义(如 Searle 1980,Tononi & Koch 2015),但我们认为它的意义值得探讨。我们接受某些科学意识理论的相关性和价值,因为它们描述的功能可以在人工智能中实现,而且我们判断它们有良好的实验证据支持。而且,我们认为,尽管在其他情况下可能并非如此,但对于人工智能来说,重理论的方法是必要的。重理论的方法关注的是系统如何工作,而不是系统是否表现出有意识生物所特有的外在行为(Birch 2022b)。我们将在本节中更详细地解释这三种观点。
在继续讨论之前,关于我们的方法和假设还有两点值得注意。第一点是,为了方便起见,我们一般会把一个系统是否有意识当作一个全有或全无的问题来写,而且关于这一点,总是有一个确定的事实(尽管在很多情况下,这个事实可能很难得知)。然而,我们也愿意接受这样一种可能性,即情况可能并非如此:一个系统有可能是部分有意识的、在某种程度上有意识的,或者既不是确定有意识的、也不是确定无意识的(见方框 1)。
其次,我们建议从信心或可信度的角度来思考人工智能中的意识问题。目前,关于这个问题的不确定性是不可避免的,但还是有充分的理由认为,一个系统比另一个系统更有可能有意识,而这可能与我们应该如何行动有关。因此,我们有必要思考一下自己在这方面的主张是否可信。
因此,思考一下自己对这方面说法的可信度是非常有用的。例如,人们可能会认为,如果一组理论主张意味着某个人工智能系统是有意识的,那么对这些主张的可信度约为 0.5;如果是这样的话,人们也应该对该系统有意识抱有类似的可信度。
1.2.1 计算功能主义
关于意识的计算功能主义,是关于与意识相关的系统属性类型的主张。根据意识的功能主义,一个系统要有意识,其必要条件和充分条件是它具有一定的功能组织:也就是说,它可以进入一定范围的状态,这些状态相互之间以及与环境之间存在一定的因果关系。计算功能主义是功能主义的一个版本,它进一步宣称相关的功能组织是计算性的【脚注3】。
【脚注3】计算功能主义与一系列关于意识与实现计算的物理状态之间关系的观点是一致的。尤其是,它与以下两种观点都是兼容的:(i)一种观点认为,一个状态是否有意识,除了它在实现计算的过程中扮演一定的角色之外,别无其他;(ii)另一种观点认为,一个状态是否有意识,取决于它是否具有独特的现象属性,而它在实现计算的过程中扮演的角色足以证明这一点。
进行计算的系统通过执行算法来处理信息;计算功能主义认为,一个状态只要有意识地在执行正确的算法时扮演正确的角色就足够了。一个系统要实施一种特定的算法,就必须在一定的抽象水平上具备一系列特征:具体来说,就是一系列可能的信息携带状态,以及在这些状态之间进行转换的特定处置。系统所实现的算法是对其可进行的状态间转换(包括输入和输出)的抽象规范。例如,一台袖珍计算器实现了一种特定的算术算法,因为它通过特定的内部状态序列来产生从按键到屏幕结果的转换。
因此,计算功能主义的一个重要结论是,一个系统是否具有意识,取决于比其物理构成的最底层细节更为抽象的特征。系统的物质基质对意识并不重要,除非基质会影响系统可以实现哪些算法。这意味着,意识原则上是可以多重实现的:它可以存在于多种基质中,而不仅仅是生物大脑。尽管如此,计算功能主义并不意味着任何基质都可以用来构建意识系统(Block,1996 年)。正如Michel和Lau(2021)所说,“瑞士奶酪无法实现相关的计算”。我们暂时假定,我们所知的计算机原则上能够实现足以产生意识的算法,但我们并不声称这是肯定的。
同样重要的是,计算相同数学函数的系统可能通过不同的算法来实现,因此计算功能主义并不意味着计算相同输入输出函数的“做相同事情”的系统在意识上必然是相同的(Sprevak,2007)。此外,与计算功能主义相一致的是,意识可能依赖于对具有特定表征格式(如模拟表征)的状态执行操作(Block,2023 年)。就Marr(1982)的分析层次而言,我们的观点是,意识取决于系统在算法和表征层次上发生了什么,而不是在实现层次或更抽象的“计算”(输入-输出)层次上发生了什么。
我们采用计算功能主义作为工作假设,主要是出于实用的考虑。大多数领先的意识科学理论都可以从计算的角度来解释,也就是说,这些理论对人类意识所必需或足够的计算特征提出了主张。如果计算功能主义是正确的,如果这些理论是正确的,那么这些特征对于人工智能系统中的意识也是必要或充分的。人类与人工智能系统之间的非计算差异将不再重要。因此,计算功能主义的假设允许我们从计算科学理论推论出人工智能意识的可能条件。另一方面,如果计算功能主义是错误的,那么就不能保证与人类意识相关的计算特征会成为人工智能意识的良好指标。例如,生物体的某些非计算特征可能是意识的必要条件(Searle,1980;Seith,2021),在这种情况下,非有机的人工系统就不可能有意识。
话虽如此,如果计算功能主义的假设不够可信,就不值得研究人工意识。尽管我们对计算功能主义有不同程度的信心,但我们都认为它是可信的【脚注4】。这些不同程度的信心,反映在我们对特定人工智能系统具有意识的可能性,以及有意识的人工智能是否可能的个人评估中。
【脚注4】 查尔默斯(Chalmers, 1995)提出了一个很有影响力的论点:如果一个人的神经元逐渐被功能等同的人工假体取代,他的行为将保持不变,因此他的意识体验不可能发生根本变化(如果发生了,他也会装作没有注意到)。
1.2.2 科学的意识理论
我们的第二个思路是,一些科学的意识理论得到了实证证据的充分支持,其主张可以帮助我们评估人工智能系统的意识。这些理论是通过数十年高质量的神经科学研究发展、检验和完善的(近期评论见Seith和Bayne 2022; Yaron等人 2022)。如果我们不知道哪些功能很重要,那么假设计算功能足以产生意识也不会让我们走得太远;但这些理论为我们提供了宝贵的指示。
科学的意识理论不同于形而上学的意识理论。形而上学的意识理论对意识如何在最一般的意义上与物质世界发生联系提出了主张。意识形而上学的立场包括属性二元论(Chalmers 1996,2002)、泛心理主义(Strawson 2006, Goff 2017)、唯物主义(Tye 1995, Papineau 2002)和幻觉主义(Frankish 2016)。例如,唯物主义声称现象属性是物理属性,而属性二元论则否认这一点。与此相反,科学的意识理论则主张哪些具体的物质现象——通常是大脑过程——与意识相关。有些理论明确旨在确定意识状态的神经关联(NCCs),将其定义为足以共同产生这些状态的神经事件的最小集合(Crick & Koch 1990, Chalmers 2000)。意识科学理论的核心问题是如何区分产生意识体验和不产生意识体验的情况,虽然这不是此类理论可能解决的唯一问题,但却是本报告的重点。
我们将在第 2 部分详细讨论几种具体的科学理论。在此,我们将简要介绍意识科学的研究方法,以说明可以对意识进行科学研究。
对意识的科学研究依赖于对意识与行为之间联系的假设(Irvine 2013)。例如,在视觉研究中,实验者可能会以某种方式操纵视觉刺激(如红色三角形),比如以两种不同的速度闪烁。如果他们发现受试者在一种情况下看到了刺激物,而在另一种情况下却没有,那么他们可能会认为,受试者在一种情况下对刺激物有有意识的视觉体验,而在另一种情况下却没有。然后,他们可以测量两种条件下大脑活动的差异,并推断大脑活动与意识之间的关系——这种方法被称为 "对比分析法"(Baars 1988)。这种方法所依赖的假设是,受试者的报告可以很好地指明他们的意识体验。
作为一种研究人类和其他动物意识的方法,依赖受试者的报告有两个主要问题。第一个问题是意识体验、报告和可能参与报告的认知过程(如注意力和记忆)之间关系的不确定性。由于报告或可报告性比有意识体验需要更多的处理过程,依赖报告的研究可能会产生误导:参与处理刺激和做出报告的大脑过程,但并非意识所必需的,可能会被误认为是意识的神经关联之一(Aru 等 2012)。另一种可能是,现象意识可能具有相对丰富的内容,其中只有一部分被注意力选中进行进一步处理,从而产生认知访问,而认知访问又是报告所必需的。在这种情况下,依赖于报告可能会导致我们错误地将获取的神经基础认定为现象意识的神经基础(Block 1995,2007)。这里的方法论问题可以说更为严重,因为现象意识是否会以这种方式 "溢出 "认知通路是一个悬而未决的问题——研究者们的观点相互冲突(Phillips 2018a)。
解决这一问题的部分办法可能是使用“无报告范式”,即在使用报告的单独实验中校准与意识的相关性后,使用报告以外的意识指标(Tsuchiya 等,2015)。这种范式的优点是在主要实验中不要求受试者进行报告,这可能会减轻报告混淆的问题。无报告范式并不是解决这一问题的 "灵丹妙药"(Block 2019, Michel & Morales 2020),但它们可能是解决这一问题的重要一步。
另一种测量意识的可行方法是使用元认知判断,如信心评级(如 Peters & Lau 2015)。例如,受试者可能会被问及他们对刺激物的答案有多大信心,例如对短暂呈现的刺激物是垂直方向还是水平方向有多大信心。这里的基本思想是,受试者利用信心评级(即元认知灵敏度)追踪其回答准确性的能力取决于他们对相关刺激的意识。同样,这种方法并不完美,但与要求受试者报告他们的意识体验相比,它还是有一些优势的(Morales & Lau 2021; Michel 2022)。意识科学中存在各种潜在的混淆因素,但研究人员可以将来自不同类型研究的证据结合起来,以减少方法论异议的力量(Lau 2022)。
报告法的第二个问题是,可能有一些意识经验的研究对象无法做出报告,包括非人类动物、婴儿和患有某些认知障碍的人。这个问题对于非人类动物来说可能最为紧迫,因为如果我们对动物的意识有更多的了解——尤其是那些与我们相对不同的动物——我们就能更好地了解与意识相关的大脑过程的范围。这一难题近来受到越来越多的关注(如 Birch 2022b)。不过,尽管目前的意识科学理论主要基于健康成年人类的数据,但研究人工智能系统是否使用了与这些理论所描述的类似的过程,仍然极具启发性。
1.2.3 Theory-heavy方法
在1.2.1节中,我们采用了计算功能主义,实现某些计算过程对意识来说是必要和充分的论 点,作为一个工作假设,在1.2.2节中,我们注意到有科学理论旨在描述计算过程和意识之 间的相关性。将这两点结合起来,就产生了一种研究AI系统中意识的有前途的方法:我们可以观察它们是否使用与意识科学理论中描述的相似的计算过程,并相应地调整我们的评估。第一个近似,我们对一个给定系统是有意识的信心,可以由(a)它的计算过程与一个给定的意识科学理论所假设的计算过程的相似性,(b)我们对这个理论的信心,(c)和我们对计算功能 主义的信心来确定【脚注5】。然后考虑多种理论可以给出一个更全面的图景。这种方法代表了一种 “重理论”的方法来研究AI中的意识。
【脚注5】该理论可能包含计算功能主义,在这种情况下(c)就没有必要了。但我们认为,如果计算功能主义是我们理解一个理论的背景假设,那么我们就应该既考虑到这个假设的不确定性,也考虑到这个理论具体内容的不确定性。
“重理论”一词来自Birch (2022b),他考虑了我们如何科学地研究非人类动物的意识,特别是无脊椎动物。
Birch反对在这种情况下使用重理论的方法。Birch的反对意见之一是,来自人类的支持科学理论的证据并没有告诉我们,他们的条件可以在多大程度上得到放松,同时仍然足以维持意识(另见Carruthers 2019)。也就是说,虽然我们可能有很好的证据证明某些过程对人类的意识是充分的,但这一证据不会告诉我们另一种动物的某个过程(在某些方面类似, 但在其他方面不同)是否也对意识是充分的。为了证明这一点,我们需要有关于哪些非人类动物或系统具有意识的先决证据——不幸的是,这个问题我们并不确定。
思考这个问题的另一种方式是,我们应该如何解释意识理论。正如我们将在这篇报告中看到的,我们可以用相对受限的方式来解释理论,比如只声称在人类身上发现的非常具体的特征足以满足意识,或者给出更自由、抽象的条件,这些条件可能会被非常简单的人 工系统所满足(Shevlin 2021)。适度的解释在吸引人的一般性(意识不仅仅是人类大脑中的这个非常具体的过程)和非直觉的自由性(意识不是一个极其简单的系统所满足的属性)之间取得平衡是有吸引力的,但尚不清楚这些解释是否有经验支持而不是替代方案。
虽然这种反对意见确实指出了重理论的方法的一个重要局限,但它并不表明重理论的方法不能为我们提供关于人工智能中的意识的有用信息。有些人工智能系统会比其他系统使用与意识理论所识别的过程更为相似的过程,而这种反对意见并不能反驳这样的说法,即使用更相似过程的系统相应地更适合意识。借鉴意识理论对我们的研究是必要的,因为它们是我们应该寻找的特征的最佳指南。调查动物的意识则不同,因为我们已经有理由相信,与人类关系更密切、行为更复杂的动物更有可能具有意识。认知结构的相似性预计会与系统发育的相关性密切相关,因此,尽管寻找这些相似性会有一定的参考价值,但其参考价值要低于人工智能。【脚注6】
Birch(2022b)主张采用 "轻理论 "方法,这种方法包括两个方面:(1)反对通过寻找特定理论与意识相关联的过程来研究非人类动物的意识;(2) 现在不致力于任何特定的理论,而是旨在将来当我们有更多关于动物(或许还有人工智能)意识的证据时,发展出更好的理论。我们的方法是 "重理论 "的,因为与第一方面的 "轻理论 "方法不同,我们确实是通过寻找科学理论与意识相关联的过程来评估人工智能系统的。然而,与Birch一样,我们目前并不承诺采用任何一种理论。更笼统地说,Birch的方法就应该如何发展意识科学提出了建议,而我们只关注在我们现有的知识水平下,应该用什么样的证据来对人工智能系统中的意识进行评估。
对人工智能而言,重理论方法的主要替代方法是使用行为测试,这种测试的目的是在科学理论之间保持中立。有人专门针对人工智能中的意识提出了行为测试(Elamrani & Yampolskiy 2019)。其中一个有趣的例子是Schneider(2019)的人工意识测试,它要求人工智能系统在对话中显示出对意识相关概念和想法的随时掌握,也许会表现出 "问题直觉",比如判断频谱反转是可能的(Chalmers,2018)。图灵测试也被提议作为意识测试(Harnard,2003)。
总的来说,我们对人工智能中的意识行为方法能否避免以下问题持怀疑态度:人工智能系统可能会被训练成模仿人类行为,但工作方式却截然不同,从而 "博弈 "行为测试(Andrews & Birch 2023)。基于大型语言模型的会话代理(如 ChatGPT)产生的输出结果在某些方面与人类非常相似,但在工作方式上却与人类大相径庭。【脚注7】Schneider(2019)建议通过限制待测试系统访问人类关于意识的文献来避免博弈,这样它们就无法学习模仿我们谈论这一话题的方式。然而,目前尚不清楚这一措施是否足够,也不清楚是否有可能给予系统足够的数据访问权限,使其能够参与测试,同时又不至于让其参与游戏(Udell & Schwitzgebel,2021)。
【脚注7】关于可能很快就会出现许多在用户看来有意识的非有意识人工智能系统的风险讨论,请参见第 4.1.2 节。
2. 意识的科学理论
在本节中,我们调查了一些关于意识的科学理论,这些科学建议并不完全是意识的理论,但与我们的项目有关,以及科学家和哲学家关于意识假定的必要条件的其他主张。 从这些理论和建议中,我们的目标是提取一系列意识指标,这些指标可以应用于特定的AI系统,以评估它们有意识的可能性有多大。【脚注8】因为我们正在寻找与AI相关的指标, 所以我们在本节中讨论了可能的人工实现理论和意识条件。然而,我们将在第3节中更详细地讨论这个主题,即AI系统需要具备我们认为是意识指标的特征。
【脚注8】Chalmers (2023)对人工智能的意识问题采用了类似的方法,他考虑了LLM的几个特征,这些特征让我们有理由认为它们是有意识的,同时还考虑了LLM意识的几个常见 "缺陷"。其中许多考虑因素与我们的指标一样,都来自科学的意识理论。
第2.1-2.3节涵盖了循环处理理论、全局工作空间理论和意识的高阶理论——其中2.3节特别关注感知现实监测理论。这些是与我们的计算功能主义框架兼容的已建立的意识科学理论。第2.4节讨论了其他几个科学理论,以及其他提出的意识条件,第2.5节给出了我们的指标列表。
我们不打算在本节中所考虑的理论之间做出评判,尽管我们确实指出了它们的一些优点和缺点。我们不采用任何一种理论,声称任何特定的条件对意识是绝对必要的, 或声称任何条件的组合联合起来是充分的。这就是为什么我们将2.5节提供的列表描述为意识的指标列表,而不是条件列表的原因。列表中的特征之所以存在,是因为理论或理论家声称它们是必要的或充分的,但我们的主张仅仅是,它们是必要的或(结合)充分的是可信的,因为这是由可信的理论所暗示的。它们存在于一个系统中,使得该系统更有可能是有意识的。我们声称,考虑到当前主体的科学知识状态,评估一个系统是否具有这些特征是判断它是否可能具有意识的最佳方法。
2.1 循环处理理论
2.1.1 循环处理理论简介
循环加工理论(RPT;Lamme 2006, 2010, 2020)是一组意识神经科学理论中的重要成员,这些理论关注大脑知觉区域的加工过程(其他理论见 Zeki & Bartels 1998, Malach 2021)。这些理论有时被称为 "局部"(而非 "全局")意识理论,因为它们声称,只要满足一定的背景条件,在相对限定的大脑区域进行适当形式的活动就足以产生意识。RPT 主要是一种视觉意识理论:它试图解释,是什么将刺激物被有意识地看到的状态与刺激物仅仅被视觉系统活动无意识地表现出来的状态区分开来。该理论认为,无意识状态与有意识状态对应于视觉加工的不同阶段。通过视觉区域层次结构的初始前馈活动足以进行一些视觉操作,如从场景中提取特征,但不足以进行有意识的体验。然而,当刺激足够强烈或突出时,就会出现循环处理,即信号从视觉层次结构中较高的区域传回较低的区域。这种循环处理产生了对有组织场景的有意识表征,这种表征受到知觉推理处理的影响,在知觉推理处理中,场景或知觉的某些特征是从其他特征中推断出来的。根据这种观点,有意识的视觉体验不需要前额叶皮层等非视觉区域或注意力的参与——这与我们即将讨论的全局工作空间理论和高阶理论等 "全局 "理论形成了鲜明对比。
2.1.2 循环处理理论的证据
循环处理理论的证据有两种:第一种是循环处理是有意识视觉所必需的证据;第二种是反对那些声称需要对知觉组织以外的功能进行额外处理的理论的证据。
第一种证据来自于涉及后向遮蔽和经颅磁刺激的实验,这些实验表明初级视觉皮层的前馈活动(上述处理的第一阶段)不足以产生意识(Lamme 2006)。Lamme 还认为,虽然前馈处理足以实现对特征进行分类等基本视觉功能,但特征分组和绑定以及图地分离等重要功能则需要循环。因此,他认为循环处理是生成有组织的、综合的视觉场景——我们似乎在有意识视觉中遇到的那种场景——的必要条件(Lamme 2010,2020)。
与要求更高的对立理论相悖的证据包括病变和脑刺激研究的结果,这些结果表明,意识视觉感知并不需要前额叶皮层的额外处理。这与非 "局部 "观点背道而驰,因为它们声称前额叶皮层的功能是意识所必需的(Malach 2022;反驳分析见 Michel 2022)。RPT 的支持者还认为,用于支持对立观点的证据被实验对与做出报告相关的下游认知过程的要求所混淆。他们的观点是,当参与者做出报告(和其他行为反应)来表示有意识知觉时,这需要认知过程,而认知过程本身并不是意识所必需的。因此,当对立理论声称意识需要下游过程时,RPT 和类似理论的倡导者就会回应说,相关证据可以用混杂因素来解释(见第 1.2.2 节讨论的方法论问题)。
2.1.3 循环处理理论中的指标
对 RPT 有各种可能的解释,它们对人工智能的意识有着不同的影响。就我们的目的而言,一个关键问题是,"意识需要循环处理 "这一说法可以有两种不同的解释。在大脑中,单个神经元接收的输入通常会受到其先前输出的影响,这是来自相连区域的反馈回路的结果。然而,在没有这种结构的情况下,也可以实现某种形式的递归:具有反馈回路的网络的任何有限操作序列,都可以通过具有足够多层的合适前馈网络来模拟。为了实现这一点,前馈网络将有多个具有共享权重的层,这样就能重复执行相同的操作,从而模仿单组神经元重复处理信息的效果,而这种效果将由具有反馈回路的网络产生(Savage 1972;LeCun 等人,2015)。在当前的人工智能中,循环神经网络的实现方式与深度前馈网络无异,其中各层共享权重,连续输入的不同输入节点组在连续几层输入网络。
我们可以说,具有反馈回路(如大脑中的反馈回路)的网络显示了实现上的递归性,这种网络允许单个物理神经元重复处理信息。然而,具有权重共享功能的深度前馈网络只显示出算法上的递归性——它们在算法上类似于实现上的递归网络,但具有不同的底层结构。因此,这里对RPT有两种可能的解释:既可以解释为意识需要实现递归,也可以解释为只需要算法递归这一较弱的主张。Doerig等人(2019)将RPT解释为意识需要实现递归,并对其进行了批判。不过,在个人通信中,Lamme向我们建议,RPT也可以被赋予较弱的算法解释。
执行递归和算法递归都是人工智能中意识的可能指标,但我们将重点放在算法递归上。我们有可能建立一个能显示执行递归的人工系统,但这需要确保单个神经元是由硬件中的特定组件物理实现的。这与当前人工智能的标准方法截然不同,后者在模拟神经网络时不使用特定的硬件元件来实现网络的每个组成部分。因此,实现重复性指标与我们的项目不太相关,所以我们没有采用这一指标。
相比之下,使用算法递归是一个弱条件,许多人工智能系统已经满足了这一条件。然而,这并不简单,我们将在下文中论证,除了 RPT 的证据之外,还有其他理由让我们相信算法递归是意识的必要条件。因此,我们将其作为第一个指标:
RPT-1:使用算法递归的输入模块
这是一个重要的指标,因为缺乏这一特征的系统在意识方面的表现要差得多。
RPT 还提出了第二个指标,因为它可以被解释为:使用算法递归来生成有组织的、连贯的场景的综合知觉再现,具有图地分离和物体空间关系表征,这对意识来说是足够的。这第二个指标是
RPT-2:输入模块生成有组织的综合知觉表征
RPT 的一个重要对比是特征提取和感知组织功能之间的对比。视觉场景中的特征可以在人类无意识的处理过程中提取出来,但知觉组织的操作,如图地分离,可能需要有意识的视觉;这就是 RPT-2 强调有组织的、整合的知觉表征的原因。
对 RPT 还有另外两种可能的解释,我们出于不同的原因将其搁置一边。首先,根据对 RPT 的生物学解释,大脑中的循环处理是意识的必要条件和充分条件,因为它与某些特定的生物现象有关,如招募特定种类的神经递质和受体,从而促进突触的可塑性。Lamme 的一些论点(Lamme 在个人通信中也向我们提出过)提出了这种生物学解释: Lamme(2010)认为,大脑中的前馈处理和循环处理之间可能存在 "基本的神经差异",我们应该期待意识与 "基本的神经机制 "相关联。我们撇开这种解释不谈,因为如果意识需要某种特定的、具有生物特征的神经机制,那么人工系统就不可能有意识。
其次,RPT 可以被理解为一种仅关于视觉意识的理论,它并不承诺什么是更普遍的意识的必要或充分条件。根据这种解释,RPT 将对以下两个问题保持开放态度:(i) 非视觉的意识体验是否需要与视觉体验类似的过程;(ii) 即使是视觉意识,是否也必须满足一些通常在人类中满足但理论中没有具体说明的进一步背景条件。对该理论的这种解释是合理的,因为该理论尚未扩展到视觉以外的领域,而且体外持续的视觉脑区活动是否足以产生意识也值得怀疑(Block,2005)。但根据这种解释,RPT 对人工智能的影响非常有限。
2.2 全局工作空间理论
2.2.1 全局工作空间理论简介
意识的全局工作空间理论(GWT),是建立在人类和其他动物使用许多专门系统(通常称为模块)来执行特定类型的认知任务的基础之上的。这些专用系统可以高效、独立、并行地执行任务。不过,它们也可以通过思维特征整合成一个系统,从而共享信息。这种整合使各模块以协调、灵活的方式共同运作成为可能,从而增强了整个系统的能力。GWT 声称,模块集成的一种方式是共同访问 "全局工作区"——系统中可以表示信息的另一个 "空间"。全球工作区中的信息可以影响任何模块中的活动。工作区的容量是有限的,因此需要一个持续的竞争和选择过程来确定工作区的内容。
GWT 认为,有意识的状态就是在全局工作区中的表征。这种说法的另一种表达方式是,当状态通过工作空间“全局广播”给许多模块时,它们就是有意识的。GWT 由 Baars(1988)提出,Dehaene 及其同事对其进行了阐述和辩护,并提出了该理论的神经版本(Dehaene 等人,1998、2003;Dehaene & Naccache,2001;Dehaene & Changeux,2011;Mashour 等人,2020)。全局工作空间理论的支持者们认为,全局工作空间解释了为什么在任何特定时间,感知(和其他)表征的某些特权子集都可以用于推理、决策和记忆存储等功能。知觉表征因刺激强度而变得更强,或因与当前任务相关而被注意力放大;因此,这些表征在进入全局工作空间的竞争中 “胜出”。因此,这些表征 "在竞争中胜出",进入了全局工作区,从而影响了产生这些表征的模块之外的其他模块的处理过程。
GWT 的神经版本声称,有一个广泛分布的 "工作区神经元 "网络,它起源于前顶叶区域,该网络中的活动通过循环处理得以维持,构成了有意识的表征。当知觉表征变得足够强大时,就会发生一个被称为 “点火”的过程,在这个过程中,工作区神经元的活动开始为知觉表征的内容编码。点火是一个阶跃函数,因此,某个表征是否被广播,从而是否有意识,并不是一个程度问题。
GWT 通常是作为访问意识理论提出的,即大脑中的某些信息(而非全部信息)可用于理性决策的现象。然而,它也可以被解释为一种现象意识理论,其动机在于,尽管在概念上是不同的,但获取意识和现象意识可能是一致的,甚至是相同的属性(Carruthers,2019)。由于我们的主题是现象意识,因此我们以这种方式来解释该理论。值得注意的是,虽然 GWT 并不明确要求代理,但它只能在系统是理性代理的情况下解释访问意识,因为访问意识被定义为理性控制行动的可用性(我们将在 2.4.5 节讨论代理)。
2.2.2 全局工作空间的证据
全局工作空间理论有大量证据,来自许多研究,我们只能提及其中几个有代表性的例子(见 Dehaene 2014 和 Mashour 等人 2020的综述)。这些研究通常采用对比分析方法,即测量大脑活动,并在有意识和无意识状态下进行对比,同时努力控制其他差异。在有意识和无意识状态下,会使用不同的刺激和任务,并使用 fMRI、MEG、EEG 或单细胞记录来测量大脑活动。GWT 的倡导者认为,这些研究表明,有意识感知与包括前额叶皮层(PFC)在内的广泛网络中的反响性活动有关——这种说法与上文讨论的 RPT 的 "局部 "特征形成鲜明对比,而无意识状态则涉及局限于特定区域的较为有限的活动。这种广泛的活动似乎出现在知觉处理的后期,即刺激开始后 250-300 毫秒左右,支持了全局广播需要持续知觉表征的说法(Mashour 等人,2020)。
支持前脑功能区在意识中发挥作用的猴子记录研究实例包括 Panagiotaropoulos 等人(2012)和 van Vugt 等人(2018)的实验。在前一项研究中,研究人员能够根据前脑功能区的活动解码双目对视时意识体验的假定内容(Panagiotaropoulos 等人,2012)。在这项研究中,猴子是被动观看刺激物的——这与许多支持 GWT 的研究不同——因此研究结果并不以行为要求为基础(这是一个无报告范式;见第 1.2.2 节和第 2.1.2 节)。在后者中,当猴子执行一项要求它们用眼球运动对微弱的视觉刺激做出反应的任务时,视觉区域 V1 和 V4 以及背外侧 PFC 的活动被记录下来。猴子在接受训练后,如果没有看到刺激物,就会将视线移到默认位置;如果看到刺激物,就会将视线移到不同位置。看到的刺激与 V1 和 V4 中更强的活动以及 PFC 中后期的大量活动有关。重要的是,早期的视觉活动记录了刺激的客观存在,与动物的反应无关,而前额叶功能区的活动似乎编码了有意识的感知,因为这种活动也出现在假警报中——在这种情况下,猴子表现得好像看到了刺激,即使刺激并不存在。与未见刺激相关的活动往往会在从 V1 到 V4 再到 PFC 的传递过程中消失。使用不同测量技术对人类进行的研究也同样发现,有意识的体验与点火式活动模式和 PFC 的解码能力相关(如 Salti 等人,2015)。
2.2.3 全局工作空间中的指标
根据全球工作空间理论,我们希望确定一个系统要有意识必须满足的条件,因为这些条件将成为人工系统有意识的指标。这就意味着一个关键问题是,一个系统实现全局工作空间到底需要什么条件。有几位作者已经指出,一个系统必须与人类大脑的工作空间特征有多相似,才能拥有足够的全局工作空间来实现意识,这一点并不明显(Bayne,2010;Carruthers,2019;Birch,2022b;Seth & Bayne,2022)。这个问题可能有四个方面。首先,类似工作空间的架构可以与具有不同能力的模块进行各种不同的组合;正如Carruthers(2019)所指出的,人类拥有一套丰富而特殊的能力,这些能力似乎得到了工作空间的帮助,但可能无法与其他系统共享。因此,一个问题是,访问工作空间的某些特定模块集是否是工作空间活动具有意识的必要条件。其次,目前还不清楚人脑中的选择、点火和广播过程必须具有何种程度的相似性才能支持意识。第三,对于那些使用类似工作空间的机制,但存在多个工作空间——也许整合了重叠的模块集——或者工作空间不是全局性的,即没有整合所有模块的可能系统,我们很难做出判断。第四,可以说全局广播涉及两个阶段——在工作区中选择表征,以及被消费者模块吸收——在这种情况下,就存在着哪个阶段使特定状态成为有意识状态的问题。
虽然这些问题很难回答,但可以通过经验证据来解决。例如,对非人类动物的研究可能有助于确定一种包含人类全局工作空间并促进与意识相关能力的自然类型(Birch,2020)。对人工智能的反思在这里也很有用,因为我们可以识别实际或可能的系统与假设的全局工作空间之间的功能相似性和不相似性,而不考虑系统中模块的范围或神经生物学实现的细节,从而对这一领域可能的功能类型有更清晰的认识。
全局工作空间理论的倡导者认为,全局工作空间促进了人类和其他动物的一系列功能(Baars,1988;Shanahan,2010 年)。这些功能包括:使模块能够在任务期间持续控制他人(例如在人群中寻找面孔),以及通过广播有关新刺激的信息来处理这些刺激,从而使系统能够学习最有效的应对方法。要实现这些功能,就必须进行全局广播,并有能力长期保持一个表征,同时利用它来处理传入的刺激。由于全局工作空间要求来自不同模块的信息以共同的 "语言 "表示,这也使得学习和产生跨模态类比成为可能(VanRullen 和 Kanai 2021,Goyal 等 2022)。全局工作区的一个特别复杂和值得注意的可能功能是“系统 2 思维”,它涉及执行复杂任务的策略,其中工作区促进了模块之间扩展和受控的互动(Kahneman,2011;VanRullen 和 Kanai,2021;Goyal 和 Bengio,2022)。例如,筹办晚宴可能需要在这一目标的控制下,进行调查行动(看看冰箱里有什么)、调用外显记忆、各种模式的想象(食物的味道如何、烹饪的难度如何、客人们将如何互动)、评估和决策等扩展过程。在这种情况下,根据该理论,工作区将保留目标的表征,或许还将保留临时结论的压缩摘要,并在模块之间传递查询和响应。
我们认为,GWT 可以用四个强度逐渐增加的条件来表示。满足这些条件中更多条件的系统拥有完整的全局工作空间架构的更多方面,因此是意识的更好候选者。
第一个条件是拥有能够并行执行任务的专用系统。我们称这些系统为 "模块",但它们不一定是Fodor(1983)所提出的苛刻意义上的模块;它们不一定是信息封装的,也不一定要使用在训练之前就已分配好功能的结构的专用组件。马舒尔等人最近关于全局神经元工作空间假说的声明仅指出,无意识处理发生的模块是局部化和专门化的,它们处理“特定的知觉、运动、记忆和评价信息”(2020 年,第 777 页)。也许拥有更多独立和差异化模块的系统更适合意识,但 GWT 最合理的解释是,意识的关键在于整合模块的过程,而非模块的确切特征。因此,我们从这一理论中得出的第一个指标是
GWT-1:能够并行运作的多个专业系统(模块)
在此基础上,GWT 的一个核心条件是系统中存在信息流瓶颈:工作区的容量必须小于为其提供信息的模块的总容量。有限容量的工作区能让模块高效地共享信息,这与 Transform-ers 等涉及成对交互的方案形成鲜明对比,后者会随着规模的扩大而变得昂贵(Goyal 等,2022;Jaegle 等,2021a)。瓶颈还迫使系统学习有用的低维多模态表征(Bengio,2017;Goyal & Bengio,2022)。有了瓶颈,就需要有一种注意机制,从模块中选择信息在工作区中进行表征。这就是我们的第二个指标:
GWT-2:容量有限的工作区,需要信息流瓶颈和选择性注意机制
另一个核心条件是,工作区中的信息是全局广播的,也就是说,所有模块都能获得这些信息。迄今为止,我们所看到的这两个条件还不足以确保模块之间能够持续互动,也不足以确保多个输出模块能够利用工作区中的信息完成不同的任务。因此,我们的第三个指标是
GWT-3:全球广播:向所有模块提供工作区信息
这意味着所有模块都必须能够从全局工作区获取输入信息,包括那些处理整个系统输入信息的模块。有多个输入模块的全前馈系统可以满足前两个条件,这些模块输入容量有限的工作区,然后信息从工作区流向一个或多个输出模块。但这一新条件要求信息也必须从工作区流回输入模块,影响它们的处理过程。反过来,这意味着输入模块必须是(算法上的)递归模块,从而为指标 RPT-1 提供了进一步的理由,尽管将工作区状态映射到行为的输出模块不一定是递归模块。
最后,要使工作区能够促进模块之间持续的、可控的互动,它还必须具备一个特点。这就是,决定模块信息吸收的选择机制必须对系统的状态以及新的输入具有敏感性。也就是说,系统必须实现一种“自上而下的注意”和“自下而上的注意”。这使得工作区本身或其他模块中的表征能够影响从每个模块中选择哪些信息。由于全局广播要求信息从工作区流向模块,因此符合 GWT-3 的系统可以轻松实现与状态相关的选择。然而,要在模块之间产生受控的功能性交互,则需要对整个系统进行适当的训练。我们的第四个指标是
GWT-4:依赖状态的注意力,产生利用工作空间连续查询模块以执行复杂任务的能力
与其他意识科学理论相比,在人工系统中实现 GWT 的建议要多得多(如 Franklin & Graesser 1999,Shanahan 2006,Bao 等人,2020)。我们将在第 3.1 节中讨论 GWT 和其他理论的实现。
2.3 高阶理论
2.3.1 高阶理论简介
布朗等人(2019)对高阶意识理论的核心主张进行了有益的提炼:
其基本观点......是,意识体验包含对自身正在进行的心理运作的某种微观内在意识,而这是由于一阶状态在某种程度上受到了相关高阶表征的监控或元表征。(p. 755)
高阶理论与其他理论的区别在于,高阶理论强调心理状态要有意识,主体就必须意识到自己处于该心理状态,而且高阶理论还提出了解释这种意识的方法。这是通过诉诸高阶表征来解释的,而高阶表征是一个具有非常特殊含义的概念。高阶表征是指表征关于其他表征的东西,而一阶表征是指表征关于(非表征性的)世界的东西。这种区别可以应用于心理状态。例如,红苹果的视觉表征是一种一阶心理状态,而相信自己拥有红苹果的表征则是一种高阶心理状态。
长期以来,哲学家们一直在倡导高阶理论(Carruthers & Gennaro 2020, Rosenthal 2005)。这种观点的主要动机之一是所谓的 "简单论证"(Lycan,2001):如果一种心理状态是有意识的,那么主体就会意识到自己处于这种状态;意识到某种事物就需要表征它;因此,意识需要对自己的心理状态进行高阶表征。这一论证的实质性承诺是,存在一种单一意义上的心理状态 "意识",在此基础上,两个前提都是真实的——它既足够弱,以至于意识包含对心理状态的意识,又足够强,以至于这种意识包含高阶表征。在过去的二十年里,神经科学家对高阶理论进行了阐述、完善和检验,元认知研究、信号检测理论和预测处理理论等新的实验方法和观点也对高阶理论产生了影响。
人们提出了多种高阶理论,这些理论描述了不同形式的“记忆”或“元表征”,并暗示了不同的意识条件(Brown等人,2019)。它们包括:几种哲学理论,包括高阶思维理论(Rosen-thal,200)和高阶表征的表征理论(Brown,2015);自我组织元表征理论(Cleeremans等,2020);高阶状态空间理论(Fleming,2020);以及感知现实监控理论(Lau,2019、2022;Michel即将发表)。我们将集中讨论感知现实监测理论(PRM),以及在一定程度上与之密切相关的高阶状态空间理论(HOSS)。这两种理论都是基于对神经科学证据的广泛评估而提出的最新计算理论。
PRM的核心主张是,意识取决于一种将知觉系统中的平均活动与噪声区分开来的机制。知觉系统中的神经活动有多种可能的来源。这种活动可能是由环境中可感知的刺激引起的;也可能是在这些刺激过后持续存在的;可能是通过期望、想象、做梦或情节记忆自上而下产生的;也可能是随机噪声造成的。PRM声称,一种自动运行的 "现实监测 "机制被用来区分这些不同类型的活动,并评估一阶表象的可靠性。当感知表征被确定为可靠时,或者换句话说,当它们与噪音有足够大的区别时,它们就会被意识到。
与此同时,霍斯也提出了类似的主张,即“意识是知觉内容生成模型中的一种高阶状态”(Fleming,2020,第 2 页)。这种高阶状态是元认知推理的产物,预示着知觉系统中存在某些特定内容的可能性。这是作为意识报告(即“我意识到/没有意识到 X”形式的报告)的基础理论提出的,但Fleming认为高阶意识状态是意识的必要条件。
2.3.2 计算的HOT和GWT
计算高阶理论有时与全局工作空间理论并称为“全局”理论,与 "局部 "理论(如RPT)相对立(Michel & Doerig 2022)。与 GWT 一样,PRM 等高阶理论也声称前额叶皮层支持的认知功能在意识中发挥着重要作用。因此,上文回顾的支持前额叶皮质在意识中的作用的证据支持 PRM 和 GWT。与 GWT 一样,PRM 也声称 "意识是感知影响认知的门控机制;它选择哪些感知信息应该直接影响我们的理性思维"(Lau 2022,第 159 页)。Lau(2022)赞同全局广播作为大脑中的一种现象的存在,也肯定了它与意识的关系:当表征是有意识的,该表征的 “全局广播和访问”就“有可能发生”(第 159 页)。
然而,高阶理论家否定了全局工作空间广播是意识的必要条件和充分条件的说法。值得注意的是,根据高阶理论,无意识表征可以在全局工作空间中编码,这意味着表征可能是无意识的,但却可以用于高级认知过程,如推理。高阶理论和全局工作空间理论做出了不同的预测,而计算型 HOT 的倡导者则呼吁通过实验来检验这些预测,以此作为支持他们观点的重要证据。
在其中一个实验中,Lau 和 Passingham(2006)在一系列不同的遮蔽条件下进行了一项视觉辨别任务,并要求参与者在每次试验中按下一个键来表示他们是看到了刺激物的形状还是仅仅猜到了刺激物的形状。他们发现,在两种不同的遮蔽条件下,参与者辨别刺激物的能力处于同一水平,但他们报告看到刺激物的可能性却不同。高阶理论家将这一结果解释为,对刺激的有意识感知可能存在差异,而任务表现却没有相应的差异,并声称这一结果与 GWT 的预测不一致(Lau & Rosenthal,2011)。GWT的这一所谓预言是,意识的差异应导致任务表现的差异,因为——根据GWT——意识可为广泛的认知功能提供信息,从而在广泛的任务中发挥作用。此外,根据GWT,点火导致全局广播是意识的必要条件和充分条件,而点火取决于影响视觉任务表现的相同因素,如信号强度和注意力。
这里更广泛的论点是,GWT 的证据被有意识和无意识条件下的表现差异所混淆(莫拉莱斯等人,2022)。导致全局广播的点火与许多任务的更佳表现相关,在缺乏控制的情况下,更佳表现也与意识相关。但由于实验似乎表明,成绩和意识是可以分离的,因此点燃对于意识来说可能既不是必要的,也不是充分的(Fleming 2020, Lau 2022)。
2.3.3 计算的HOT中的指标
正如我们所看到的,PRM 声称,当知觉状态被元认知监控机制识别为可靠时,它们就是有意识的。这种机制输出高阶表征,将一阶状态标记为对现实的准确表征。同样,霍斯认为,意识取决于针对知觉表征的高阶意识状态。因此,这两种理论都认为,对具有相关属性的感知系统进行元认知监控是人工智能意识的必要条件。
基于这一观点,我们提出了两个指标:
HOT-1:生成的、自上而下的或嘈杂的感知模块
HOT-2:元认知监控,将可靠的感知表征与噪声区分开来
HOT-1 是意识的一个指标,因为根据计算 HOT,负责意识的监控机制的功能是区分知觉系统中不同的活动来源。这意味着,在存在多种可能的活动来源的系统中,意识更有可能产生。这种系统的例子包括可以在想象中自上而下产生知觉表征的系统,以及受随机噪声影响的系统。HOT-2是根据计算HOT对意识的主要必要条件的陈述。
刘(2022)认为生成对抗网络(GAN)可能具备这两个条件,我们将在第 3.1.3 节中进一步讨论这种可能性。然而,PRM 的倡导者声称,当前的人工智能系统并不符合他们理论的条件(Michel & Lau 2021, Lau 2022)。他们强调,感知现实监控系统必须具备另一个特征:除了区分感知状态之外,感知现实监控机制还必须向 "一般信念形成和理性决策 "系统输出(Michel & Lau 2021)。这一条件的理由是,意识经验具有一定的 "断定力"。我们的一些有意识的知觉经验向我们展示了外部世界的准确印象,我们很难不相信事物就是这些经验所代表的那样。【脚注9】即使我们相信自己受到了幻觉的影响,但我们的意识经验代表世界本来面目的印象依然存在--知道穆勒-莱尔幻觉并不能阻止两条线看起来不相等。 这种经验是对认知的持续输入,不受认知的直接控制。
【脚注9】想象的体验是一个例外,但 PRM 可以声称,现实监测机制对想象的体验进行了不同的分类,因此,它们具有不同的现象特征。或者,像 HOSS 和 PRM 这样的高阶理论可以认为,想象的体验具有某种最低限度的断言力,从而解释了以下结果:如果目标与参与者的心理想象一致,参与者更有可能报告目标可见(Dijkstra 等人,2021 年,2022 年;Dijkstra 和 Fleming,2023 年)。
这一观点的另一个方面是,监控机制将某些感知内容标记为 "真实 "的原因在于,当这些内容被标记为真实时,整个人或系统都倾向于认为它们是真实的。这就意味着,包含监测机制的系统必须是一个在选择行动时依赖于被标记为 "真实 "的感知表征的代理。那么,现实监控机制的功能就是识别哪些感知状态足够准确,可以以这种方式加以依赖。现实监测机制的倡导者提出,依赖感知内容就是相信该内容--鉴于他们对信念的描述,这意味着推理和行动选择系统具有整体性,在这个系统中,任何信念原则上都可以在检查任何其他信念或推理该做什么时被调用。这些主张为我们提供了源于 HOTs 的第三个指标:
HOT-3:以一般信念形成和行动选择系统为指导的代理,以及根据元认知监控结果更新信念的强烈倾向
计算HOT还提出了进一步的主张,这就产生了第四个指标。与大多数关于意识的科学理论一样,PRM 也旨在回答 "是什么让一种状态成为有意识的,而不是无意识的?"这个问题。然而,它也试图回答另一个问题:"为什么有意识的精神状态会有这种感觉?它对第二个问题的回答诉诸于质量空间理论,该理论认为现象质量可以归结为它们允许系统进行的判别(克拉克,2000;罗森塔尔,2010 年;Lau 等,2022)。例如,从系统的角度来看,两个特征之所以感觉相同,是因为它们是无差别的(Rosenthal,2010)。根据这一提议,两种体验的主观相似性是其可区分性的倒数,而主观品质的体验取决于对相似性空间的隐性知识。因此,品质空间理论提供了对品质的功能性解释(见 Lau 等人,2022)。例如,要有意识地体验郁金香的红色,就必须隐含地掌握它与红苹果颜色的相似性以及与新叶绿色的可区分性。有一种假设认为,这种内隐知识取决于知觉系统中稀疏而平滑的编码,也就是说,品质由相对较少的神经元来表示,并根据连续的编码方案来表示,而不是将刺激划分为绝对的类别(Lau 等人,2022)。
重要的是,PRM 声称,没有特质就不可能有意识,因此,尽管特质空间理论并不是一种关于是什么让一种状态具有意识的理论,但该理论的假设却是意识的必要条件。因此,我们从 HOTs 得出的最终指标是
HOT-4 生成 "质量空间 "的稀疏平滑编码
这一条件在人工智能中可能相对容易满足:所有深度神经网络都使用平滑的重现空间,而稀疏性也可以通过我们熟悉的机器学习技术来实现(见第 3.1.3 节)。
2.4 其他理论和条件
人们提出了许多关于意识的科学理论(见 Seith和Bayne 2022 的清单)。此外,还有一些有影响力的理论建议,它们并不完全是意识理论,但却与我们的研究有关。此外,科学理论中可能没有明确强调意识的必要条件,因为所有人类都符合这些条件(如拥有身体),但在人工智能的背景下,我们需要考虑这些条件。在本节中,我们将考察几种相关理论、建议和条件,然后在第 2.5 节中提出我们的指标。
综合信息理论(IIT;Oizumi等人,2014;Tononi & Koch 2015)是下文中我们不会讨论的一个理论。IIT的标准解释与我们的计算功能主义工作假设不相容:Tononi和Koch(2015)认为,一个与人脑执行相同的算法的系统,如果其组成部分是错误的,那这个系统也不会有意识。与此相关,IIT 的支持者声称,该理论意味着数字计算机不可能有意识,无论它们运行的是什么程序(Albantakis & Tononi 2021)。因此,与其他科学理论不同的是,IIT 并不意味着某些基于传统硬件的人工智能系统会比其他系统更适合有意识;这使得它与我们的项目不太相关。最近有人提出,信息整合的测量结果可能与清醒、睡眠和昏迷等“整体意识状态”相关——这种范式被称为“弱IIT”(Michel & Lau 2020, Mediano et al. 2022)。但弱IIT对我们项目的影响是有限的:它表明可测量的整合和分化特性对意识很重要,但(目前)还没有告诉我们应用于人工系统时应依赖哪些测量方法或如何解释其结果。
2.4.1 注意图式理论
意识的注意图式理论(AST)认为,人脑构建了一个注意模型,该模型代表——也可能错误地代表——有关当前注意对象的事实。这一模型有助于大脑控制注意力,就像身体图式有助于控制身体运动一样。有意识的体验取决于注意力模式的内容。例如,如果图式表征我目前正在注意一个苹果,我就会有看到苹果的意识体验(韦Webb & Graziano 2015, Graziano 2019a)。注意图式理论声称,注意图式的运作解释了我们对自身体验的直觉:该理论认为,由于注意图式并不代表注意机制的细节,因此在我们看来,我们是以一种直接且看似神秘的方式与刺激(如苹果)相关联的。
AST可以被看作是意识的高阶理论,因为它认为意识依赖于特定类型的高阶表征(在这里,就是我们注意力的表征)。与其他高阶理论一样,它特别强调我们对自身心理状态的意识。然而,与大多数高阶理论不同的是,AST的具体目标是解释我们对意识的看法和说法,比如我们是有意识的,以及意识似乎难以与世界的物理描述相吻合(也就是说,AST旨在解决意识的元问题——见 Chalmers 2018、Graziano 2019b)。由于AST侧重于解释为什么我们(可能错误地)相信关于意识的某些事情,因此它可以被理解为试图解释意识。但它也可以被解释为对意识条件的一种说明。
AST 为我们提供了人工智能中意识的进一步指标:
AST-1:代表并能控制当前注意力状态的预测模型
表征当前的注意力状态可以让大脑了解注意力的作用,以及注意力如何受到大脑和环境事件的影响。因此,有了一个模型,大脑就更容易学会采取影响注意力的行动,因为这些行动会对其他认知过程产生有益的影响。预测模型尤其有价值,因为它能让大脑预测注意力的对象会如何根据大脑或环境的变化而变化,并做出相应的调整。这些调整可能包括先发制人的调整,例如,当预期重要任务会分散注意力时。对于越来越多的人工智能系统来说,能够有效控制注意力的类模式(schema-like)模型可能非常有价值,因为这些系统采用了注意力——这里可以理解为对信息流的主动控制(Liu et al. 2023)。
2.4.2 预测处理
预测处理(PP)是作为人类认知的一个全面、统一的理论而提出的,并被用作解决有关心智的许多问题的框架。由于它是一个总体框架,一些预测加工理论学家将其描述为一种为意识服务的(for consciousness)理论,而非关于意识的(of consciousness)理论(Seth & Hohwy 2021, Seth & Bayne 2022)——一种意识理论的发展范式。然而,PP 的倡导者用它来解释意识体验的许多具体特征,如“感受质”(qualia)令人费解的性质(Clark 2019)以及情感和体现的现象学(Seith 2021)。意识理论家对意识进行了广泛的讨论,但相对而言,他们很少直接关注对我们来说最重要的问题:意识系统与非意识系统的区别在哪里,意识系统中的意识状态与非意识状态的区别又在哪里(Deane 2021, Hohwy 2022, Nave et al.2022)。
PP认为,人类和动物认知的本质是尽量减少分层生成模型在预测感官刺激时产生的误差。在感知过程中,该模型不断在多个层次上生成预测,每个预测都受到邻近层次和过去预测的影响,并受到最终来自感官刺激本身的预测误差信号的影响。这一过程受到注意力的调节,根据 “主动推理”(active inference)理论,注意力还可以控制行动,因为行动可以减少预测误差。如果生物体能预测自己的成功,那么适应性行动就会被选中(Friston 2010)。
虽然PP不是一种意识理论,但它的流行意味着许多研究人员将预测处理视为意识的一个可信的必要条件。因此,我们将预测编码的使用纳入了我们的研究指标:
PP-1 使用预测编码的输入模块
根据“意识理论”的理念,PP 框架已被用于 GWT 和 HOT 的开发。Hohwy(2013)和Whyte(2019)提出,当感知推理过程将环境状态的某些表征确定为最有可能时,就会进行全局广播(通过点火),然后将此表征作为主动推理的基础。同时,高阶状态空间理论采用了PP框架(Fleming 2020)。
2.4.3 中脑理论
虽然我们迄今为止讨论的意识神经科学理论主要关注大脑皮层过程,但Merker(2007)认为,大脑皮层并非意识的必要条件。这一观点在最近关于非人类动物意识的讨论中尤其具有影响力。Merker的提议是,中脑和基底节的部分活动构成了“行为主体在其环境中的统一多模态神经模型,该模型以行为主体当前的需求和状态为权重”(Klein & Barron 2016 ),这种活动足以产生主观体验。在Merker的论述中,中脑的一个区域——上丘(superior colliculus)——整合了来自空间感官和前庭系统的信息,构建了生物体在空间中的位置和运动模型。其他区域包括下丘脑、下丘脑周围灰质和基底神经节的部分区域,它们带来有关生物体生理状态的信息,有助于识别机会和选择行动。从功能上讲,中脑理论认为意识取决于 "综合时空建模 "的行动选择(Klein & Barron,2016)。
Birch(2022b)总结并批评了中脑理论的证据。就我们的目的而言,该理论之所以值得注意,是因为它提供了一个关于认知整合对意识的重要性的特殊视角。中脑理论认为,意识所需的整合是为了解决复杂移动动物决策这一古老的生物问题,尤其是区分自身运动对知觉输入的影响(Merker,2005)。因此,中脑理论强调需要将特定类型的输入信息,如空间信息、情感信息和稳态信息,整合到一个共同的模型中。因此,这一理论使我们有更多理由相信,有意识地引导身体穿越空间的系统是必要的,从而有助于我们在第 2.4.5 节中提出的指标。
2.4.4 无限联想学习
动物意识文献中另一个有影响力的理论是 Ginsburg 和 Jablonka(2019)的无限联想学习框架(Birch 等人,2020)。他们提出,无限联想学习能力(UAL)是意识的进化 "过渡标记":这是一个单一特征,表明在某一特定品系中已经发生了向意识的进化过渡。Ginsburg 和 Jabolanka 将 UAL 定义为一个标志,理由是它需要几个 "标志 "的组合,而这些 "标志 "被认为足以共同构成生物体的意识。因此,UAL 框架汇集了一系列似乎与意识有关的特征,并认为它们通过促进 UAL 而实现了统一。
与本报告有些类似,UAL 项目旨在确定一组意识的共同充分条件。下表概括了这一系列条件(沿用了Birch等人在 2020 年对这些条件的表述)。
这份条件清单与我们在本节的工作中提出的条件类似(与我们一样,Ginsburg和Jablonka在制定他们的清单时也研究了科学的意识理论)。实施全局工作空间架构的系统,可以满足全局可访问性和选择性注意的条件。我们将在第 2.4.6 节讨论随时间变化的整合。其他几个条件与主体性和具身化有关,我们将在第 2.4.5 节中讨论。这些条件不仅包括具身化和主体性条件本身,还包括自他注册(self-other registration,这也与中脑理论一致)和具有灵活的价值体系。我们认为,任何基于神经网络的人工智能系统都将满足绑定/统一条件,因为这些系统的设计目的就是要学会辨别复杂的模式。最后一个条件,即系统应代表其身体和环境,这引发了关于意向性的哲学问题,我们在此不再赘述。但是,任何关于意向性的自然主义理论都有可能认为,满足其他条件的系统也会满足这个条件,因为其他条件需要执行可能成为意向性基础的功能。
那么无限联想学习能力本身又如何呢?这可以说是人工系统意识的一个指标。在UAL框架中,它被描述为一种开放式的联想学习能力。特别是,要具备这种能力,生物体必须能够对复合刺激和新刺激进行条件反射,并能快速、灵活地更新与刺激、行动和结果相关联的价值。它还必须能够进行二阶条件反射,即能够将联想链连接起来,以及进行追踪条件反射,即在刺激之间存在时间差的情况下学习联想。因此,拥有无限联想学习的能力意味着生物体或系统能够跨模式、跨时间地整合信息,能够评估刺激并根据新信息改变这些评估。
因此,这种能力也与我们的许多指标有关。GWT 强调从不同模态中整合信息和灵活学习。PRM 也提出了类似的能力,要求建立一个通用的信念形成和决策系统,该系统可接收来自任何接受元认知监控的感官模态的输入。评价和评价性学习与主体性密切相关。人工智能系统如果能将主体性与意味着整合性和灵活性的指标结合起来,就可能成为意识的最佳候选者,因为根据 UAL 的观点,这些系统将与最有可能有意识的动物共享显著的认知能力。此外,如果具有 GWT 或 PRM 所描述的那种结构能够促进灵活的学习,那么这种结构也许就是意识的最佳证据。
然而,人工智能系统有可能以不同的方式实现无限联想学习的能力——使用的架构既不同于 GWT 等理论所描述的架构,也不同于动物所拥有的架构。这些系统可能在拥有这种能力的同时,却缺乏Ginsburg和Jablonka所指出的意识的某些特征。这将削弱此类系统具有意识的论据,这也是我们怀疑 UAL 本身是否是人工系统具有意识的良好指标的一个原因。另一个原因是,UAL 假说的地位与我们所考虑的其他理论截然不同:它不是声称要找出意识经验的内在机制,而是声称要找出生物体内意识的行为标记。基于这些原因,我们没有把UAL能力列入我们的指标清单。
2.4.5 主体性和具身化
当前的人工智能系统与环境的关联方式往往与人类和其他动物大相径庭,可以说,这些差异是否定此类系统具有意识的证据。 例如,考虑一下著名的图像分类器 AlexNet(Krizhevsky 等人,2012 年),这是一个通过监督学习训练出来的相对小而简单的 DNN。我们通常认为有意识的生物与 AlexNet 有很大不同:它们是追求目标并做出选择的代理;它们有生命、有身体;它们不断与环境互动,涉及短时间内的信息存储和整合。相比之下,AlexNet 具有对图像进行分类的功能,但并不采取行动或追求任何目标。从定义它的权重和其他特征存储在物理存储设备中的意义上讲,它是物理实现的,但它没有身体。它处理的输入和输出在时间上是分离的,并且相互独立,但不会改变其状态。在本节和下一节中,我们将讨论是否可以从人类与某些人工智能系统之间的这些“大画面”差异中找出意识的进一步指标。
我们将在本节中看到,科学家和哲学家们认为,与主体性和具身化相关的各种特性是意识的必要条件。我们将考察其中一些论点,找出可能的指标,然后讨论是否可以用与计算功能主义一致的方式来表述它们。在本小节的最后,我们将在我们的列表中增加两个指标。
2.4.5(a) 主体性
认为意识需要主体性的一个论点是,许多科学理论都暗示了这一点。我们讨论过的大多数意识理论都在某种程度上 都提到了主体性。
PRM尤其明确地指出,主体性是意识的必要条件。PRM声称,分辨感觉信号和噪音的子系统必须输出到“一般信念形成和理性决策系统”(Lau & Michel 2021)。该理论的基础观点之一是,有意识的知觉体验具有一种“断言力”(assertoric force),这种“断言力”既可以解释为信号作为决策系统输入的某种持久性,也可以解释为形成相应信念的强烈倾向性。在大多数哲学观点中,信念与其他表征的区别部分在于它们用于决定如何行动(Stich 1978, Dretske 1988, Schwitzgebel 2021)。我们已经提出了一个表达 PRM 这方面的指标,但问题仍然是,主体性是这一理论中引用的功能的前提条件。
中脑理论明确要求主体性,因为它声称中脑的功能是整合行动选择的信息,而 GWT 也强调主体性,但并没有明确指出主体性是必要的。Dehaene 和 Naccache(2001)声称,要想为有意行动提供信息,就必须在全局工作空间中进行表征,这与他们将 GWT 表述为一种获取意识的理论是一致的,因此也是一种为理性主体性提供信息的理论。UAL假说认为,"主体性与具身化 "和 "灵活的价值体系"(Birch et al. 2020)是意识的标志。
哲学界也有独立的论点认为,主体性是意识的必要条件(Evans 1982;Hurley,1998;Clark & Kiverstein,2008)。Hurley(1998)声称,意识需要意向主体性,她将意向主体性定义为:
. . . [系统的]行动整体上取决于其感知与意图之间的关系,或其信念与愿望之间的关系。刺激与反应之间的关系并非一成不变,而是反映了它的感知和意图与各种错误或曲解的可能性之间的理性关系。(p. 137)
Hurley的这一论点与意识的感觉运动理论以及具身认知和能动认知理论有关,我们将在下文进一步探讨。一个关键的观点是,意识需要一种对环境的视角或观点,而具身的主体性可以产生这种视角或观点。Hurley 还认为,意识的一部分就是能够接触到自己意识经验的内容,这就要求能够根据这些内容有意识地行动。然而,其他哲学家则认为,完全没有行动能力的实体至少在概念上有可能存在有意识的体验(Strawson 1994, Bayne et al. 2020)。
这些考虑提出了三种可能的意识指标(除了由 PRM 产生的指标 HOT-3 之外)。这三个指标是:作为任何类型的主体;如 UAL 的倡导者所建议的那样,具有灵活的目标或价值观;以及如Hurley 所建议的那样,作为有意图的主体(intentional agent)。后两个条件严格来说比前两个条件更强,但这本身并不意味着应该排除任何一个条件。一般来说,主体可能比非主体更适合作为意识的候选者,而有意图的主体(比如说)也比其他主体更适合作为意识的候选者,在这种情况下,主体和有意图主体都是有用的指标。
Russell和Norvig在他们的经典人工智能教科书中写道:“主体是任何可以被视为通过传感器感知环境并通过激活器对环境采取行动的事物”(2010,第 34 页)。这是一个非常宽泛的主体定义。AlexNet 符合这些条件——事实上,所有人工智能系统都符合这些条件——许多简单的人工制品也符合这些条件,例如恒温器。因此,就我们的目的而言,主体的概念过于宽泛。
在Russell和Norvig的论述中增加三个条件,就可以定义一个更具实质性的主体概念。首先,系统的输出会影响其随后的输入,这是主体的一个可信条件。如果没有这个条件,系统只能单独对输入做出反应,而不能与环境互动。AlexNet 不符合这一条件,因为一般来说,它输出的标签并不会影响随后输入的图像。这与第二个条件有关,即主体追求目标。我们通常认为这涉及到与环境的持续互动,在这种互动中,选择输出是因为它们会使系统更接近目标——也就是说,它们会改变环境状态,影响自己的输入,从而使未来的输出更容易实现目标。
第三个条件是,系统必须学会产生与目标相适应的输出。Dretske(1988,1999)强调了这一点,他认为,只有当系统在接受给定输入时,对产生该输出所带来的利益非常敏感,系统的输出才是一种行动。系统对利益的这种敏感性表现在它学会产生有益的输出。德雷茨克的观点是,这将动物的某些行为与植物的行为区分开来,前者他认为动物表现出了能动性,而后者则是在进化过程中以特定的方式对刺激做出反应,而不是通过学习来做到这一点;他还将恒温器等人工制品区分开来,恒温器被设计成可以产生特定的反应。同样,Russell 和 Norvig 认为,如果一个主体的成功取决于其设计者对任务的事先了解,那么它就缺乏自主性(2010 ,第 39 页)。
强化学习(RL)研究的明确目标是建立追求目标的人工主体(Sutton & Barto,2018),而典型的 RL 系统符合上述所有三个条件。在 RL 中,任务是在与环境交互的过程中最大化累积奖励,在此过程中,系统的输出会影响其后续输入。因此,典型的 RL 系统完全符合主体的实质性标准(Butlin,2022,2023)。【脚注10】 不过,这并不是说 RL 是主体的必要条件——系统还可以通过其他方法从反馈中学习,从而更有效地追求目标。同样重要的是要注意,这里提出的主体标准是相对最低的。
【脚注10】所谓的 "老虎机"(bandit)系统可能是一个例外,这种系统是在输出不影响后续输入的环境中从奖励信号中学习的。
UAL 的倡导者认为,主体的目标或价值观在两种意义上可以是灵活的(Bronfman 等人,2016;Birch 等人,2020)。一种情况是,行为主体有能力学习新的目标,例如通过经典条件反射,一种新的刺激物可以通过与行为主体已经重视的刺激物的联系而得到重视。另一种方式是,行为主体的目标和价值观能够对其不断变化的需求保持敏感,例如动物的偏好会根据其平衡状态而改变。尽管,即使是非常简单的行为主体也有能力进行经典条件反射或习惯学习,即强化新的行为,但对这两种情况中任何一种灵活性的要求都比对行为主体的要求要强一些。
有更好的论据表明,第二种形式的灵活性与意识有关:它可能需要一个集中的架构,在这个架构中,多种与价值相关的信息来源被整合在一起,而且这也意味着,必须对与不同目标或价值相关的不同类型状态的动机意义进行比较。科学和哲学文献中的一个建议是,意识效价(conscious valence)——即意识体验令人愉悦或不愉快的程度——可以构成一种“通用货币”,使这种比较成为可能(Cabanac 1992, Carruthers 2018))。因此可以说,对竞争目标的灵活反应才是最有说服力的。
2.4.5(b) 具身化
根据主体的最小概念和意向概念,一个系统似乎有可能成为一个主体,而不被具身化。例如,考虑一下 AlphaGo,它是第一个击败世界上最好的人类围棋选手的人工智能系统(Silver 等人,2016)。AlphaGo 是一个主体,但它缺乏具身系统的特征。具身系统位于环境中的特定位置,其可用的行动和观察受到其位置的限制。它们通常还拥有相对复杂的效应器,必须长时间持续控制这些效应器才能执行有效的行动。它们的输出是动作,这些动作对它们的输入有一些直接和系统的影响——例如,转头对视觉输入有系统的影响,但也有一些不那么直接的影响。Clark(2008,第 207 页)在关于具身化的哲学论述中描述了这些观点,他写道:
......身体是......意志行动的中心,是感觉运动的汇合点,是智能卸载(intelligent offloading)的入口,也是一个稳定的(尽管不是永久固定的)平台,在一些智能表现的基础计算中,其特征和关系是可以依赖的(无需被表现出来)。
这里所说的“智能卸载”是指具身认知和外显认知的理论:具身主体可以通过多种方式利用其身体和环境的特性,使其所面临的认知任务更容易完成,例如记录环境中的信息。
人们认为,与意识相关的具身化的一个方面就是拥有Hurley(1998)所说的“视角”。这也需要主体性。Hurley认为:
有一个视角在某种程度上意味着,你所经历和感知的一切系统地取决于你所做的一切,反之亦然。此外,它还涉及跟踪......你的体验和感知如何取决于你的行为。(p. 140)
对于在环境中移动的具身主体来说,感官输入的变化可能是因为环境的变化,也可能是因为主体主动或被动地改变了自己在环境中的位置。为了区分这些情况,主体必须跟踪自己的主动运动,并了解这些运动如何影响输入。这将使它们能够预测自身动作的感知序列,而这些序列通常与动作紧密相连,从而将它们与环境中的外生变化区分开来。被动运动也是可以区分的,因为这些运动会在没有相应输出的情况下引起运动所特有的输入变化。这些功能涉及到行为主体暗中区分位于运动躯体中的自我和发生运动的环境。可以说,意识要求主体对环境有一个单一的视角或观点,这种观点旨在解释具身主体如何产生这种视角(Hurley 1998, Merker 2005, Godfrey-Smith 2019))。
与此相关的是,根据感知意识的感觉运动理论,有意识的体验是与环境互动的活动,这些活动构成了内隐、实用的感觉运动知识的练习(Hurley 1998, O’Regan & Noe 2001, No ¨ e 2004, Kiverstein ¨ 2007)。感官运动知识的一个简单应用是移动头部,以便从不同角度观察物体。与Hurley 的提议一样,这一理论意味着学习输出-输入或然性模型、并在感知中使用这一模型,是意识的必要条件。中脑理论还认为,意识与环境中存在的、用于感知、行动选择和控制的具身自我综合模型有关。
然而,为了捕捉具身而非单纯主体的理念,我们需要进一步明确输出-输入模型的特征——它也可以被称为“过渡模型”(transition model)或“前向模型”(forward model)。阿尔法围棋(AlphaGo)是我们举例说明的非实体主体,它在蒙特卡洛树搜索中使用了这种形式的模型,蒙特卡洛树搜索是一种规划算法,涉及评估可能行动的预期后果。
具身系统中输出-输入模型与众不同之处在于,它能代表运动对感官输入的直接和系统性影响。围棋系统并不一定满足这一条件,因为它们接收的每个输入都可能受到对手棋步的影响。此外,具身化系统在使用此类模型的方式上也可能与众不同。在感知中使用输出-输入模型来区分内生变化和外生变化,就是一种独特使用方式的可能例子,因为当感官输入取决于移动身体的位置和方向时,就需要使用输出-输入模型。
使用输出-输入模型的第二种方式(可能是具身系统特有的)是运动控制。具身系统通常有具有多个自由度的效应器,必须以精确和反应灵敏的方式加以控制,因此有人认为前向模型(文献中称之为前向模型)在这种情况下有几种特殊的用途(Miall & Wolpert 1996, McNamee & Wolpert 2019)。特别是,前向模型通过提供每个时刻的预期位置,可以帮助具身主体在行动过程中估计和调整其效应器的位置。这些预期与感官反馈或目标状态的内部表征之间的差异可用于在线调整。
除了主体性和具身化之外,意识的另一个可能的必要条件是,意识系统必须是自我产生、自我维持的 "自生 "系统(Matu-rana & Varela 1991, Thompson 2005, 2007, Seth 2021, Aru et al.) 。也就是说,它们必须通过自身的持续活动来维持自身的存在和组织。这一特征是生物的特征,生物不断自我修复,并对温度和组织中的化学物质平衡进行同态调节。自我维持活动通常(也许总是)涉及感知和反应的“原认知”(proto-cognitive)过程(Godfrey-Smith 2016)。这一观点的支持者在论证自我维护是意识的必要条件时,提到了主体性、自我性(selfhold)和自主性等概念。例如,Thompson(2005)写道:
这种自我生产组织(self-producing organization)定义了系统的身份,并确定了与环境相关的视角或观点。以这种方式组织起来的系统会产生或带来对它们来说算得上是信息的东西;它们不是将输入指令转换成输出产品的转换器或功能。基于这些原因,引用自我性和主体性的概念来描述它们是合理的。(p. 418)
Seth(2021 )等同情预测处理的人认为,生命组织中的自我维持与大脑中的预测误差最小化过程类似——它们都是自由能最小化或“自我验证”(Hohwy 2022)的实例。更确切地说,进行自我维护为系统建立自身状态模型提供了额外的理由,与灵活的目标有关,可以说为自我和环境的表征增添了价值维度。然而,在最后一点上,我们并不清楚为什么要把为自我维护服务的主体与针对“外部”目标的主体区分开来。
根据这一思路,Godfrey-Smith(2016 )认为,只有当分子浸泡在水中时,其在纳米尺度上的行为方式才能使自我维持活动成为可能。在这种情况下,在这种尺度上存在着持续的随机活动,可以用来支持新陈代谢过程。在此基础上,Godfrey-Smith提出,人工系统只能与生物体具有粗粒度的功能相似性,而这不足以产生意识。因此,提出的另一个必要条件是,有意识的系统必须在纳米尺度上实现新陈代谢过程。Man 和 Damasio(2019 )还提出,自我维护以及意识可能取决于系统的特定材料组成。
2.4.5(c) 主体性和具身化的指标
意识取决于物质构成的提议显然与计算功能主义不相容,因此我们可以把它搁置一边。然而,我们讨论过的其他提议与计算功能主义的兼容性问题就比较复杂了。在每种情况下,问题都是一样的:对假定指标的自然表述都要参考系统外部的条件。如果一个相似的系统可以在不同的外部条件下进行同样的计算,这就与计算功能主义不相容。
例如,考虑一下自我维持是意识的必要条件这一说法,假设一个系统要在相关意义上自我维持,它就必须持续存在,部分原因是它跟踪某些输入或内部状态,并采取行动加以调节。似乎对于任何这样做的系统来说,都可能有另一个系统在进行同样的计算——跟踪同样的输入或内部状态,并使用同样的输出来调节它们——但却并不因为这个原因而持续存在。也许这个系统的工作是为了防止 "能量值 "降得太低,但事实上,即使这个值降至零,它也会持续存在,而且它的能量是由外部操作者以一种不依赖于它的行为的方式提供的。
如果主体性和具身化是意识的必要条件,那么出于类似的原因,计算功能主义可能无法满足这些条件。这些条件要求系统的输入对其输出敏感。但原则上,一个系统有可能存在于一个其输入并不依赖于其输出的环境中,但却偶然接收到与这种依赖性相一致的输入和输出模式。这样的系统可能与真正与环境互动的系统进行相同的计算。
为避免出现这种不相容的情况,应“狭义”地制定有关机构、视角或自我维护的指标,不提及外部条件。例如,与其说如果一个系统通过与环境互动来追求目标,那么它就更有可能是有意识的,我们可以说,如果它从反馈中学习并选择行动,从而通过与环境互动来追求目标,那么它就更有可能是有意识的。同样,我们可以说,如果一个系统有一个关于其输出如何影响其输入的模型,这个模型代表了一些系统性的效应,并且在感知或控制中使用这个模型,那么这个系统就是具身的。从某种意义上说,这个系统即使学会了这个模型,也可能把自己误认为是一个具身的主体,因为它过去的观察所显示的明显的系统性偶然事件可能只是巧合。然而,只有这样才足以形成意识的具身条件才符合计算功能主义。值得注意的是,这种关于具身的解释允许控制虚拟化身的系统也算作具身。
在本节中,我们看到了几个可以加入我们清单的指标。这些指标包括:作为一个主体;具有灵活的目标或价值观;作为一个有意图主体;具有视角;具有身体;以及自我维持。不过,我们也有理由排除其中一些指标。我们已经有了一个指标,要求具有类似信念表征的相对复杂的主体形式:指标 HOT-3,源自 PRM。意向主体指标与这一指标过于相似。尽管自我维护指标的狭义表述是可能的,它与计算功能主义是兼容的,但这与强调自我维护的哲学理论的精神是相悖的。作为主体和拥有灵活的目标这两个概念是密切相关的,而灵活的目标为意识提供补充的主要方式是通过对集中化和共同动机货币(common motivational currency)的论证,因此我们把这两个概念合并为一个指标。
因此,我们又采用了以下两个意识指标:
AE-1 主体性:从反馈中学习并选择产出,以追求目标,特别是当这涉及到对相互竞争的目标做出灵活反应时
AE-2 具身化:建模输出-输入的偶然性,包括一些系统性效应,并在感知或控制中使用该模型
2.4.6 时间与循环
人类的意识经验似乎在时间上高度整合。我们似乎经历着本身就在时间上延伸的体验,并对时间上延伸的现象构成有意识的感知,比如当我们听到鸟儿的歌声、或看着它从一个栖息地飞到另一个栖息地时。更重要的是,从我们每天醒来开始,我们似乎就经历了一个连续数小时的综合体验流。无论是否应该从记忆的角度来解释我们经验的这一特征(Dainton 2000, Phillips 2018b),我们有意识的体验似乎也深受我们记忆的影响。这种整合可能会被视为一个理由,让我们怀疑意识是否可能存在于由时间上不连续的前向传递活动组成的 ANN 中;如果我们想象在传递之间有很长的间隔期(数周、数年),那么这一点就尤为生动。然而,我们可以对这种反对意见做出几种回应。
一种回应是,意识是否一定会随着时间的推移而整合并不明显。密集失忆症患者似乎有一系列短暂、不连贯的经历(Wilson et al. 1995)。这些经历可能不是一成不变的,但似乎可以想象一个有意识的生命只有一连串短暂、静态、离散的经历。有一个问题是,怎样才能证明这些经验是一个单一主体的经验,但并不明显的是,随着时间的推移,整合是意识经验主体持续存在的唯一可能的理由,或者说,没有持续存在的主体,就不可能有意识系统。
此外,人类经验表面上的时间连续性也有可能是虚幻的。哲学家和科学家对我们的经验如何随着时间的推移而产生提出了一系列观点(Dainton,2023),但其中包括一种观点,即我们经历了快速连续的离散、静态经验,这些经验是从无意识活动中抽样产生的(VanRullen 2016, Herzog et al. 2020)。Prosser(2016)称之为“动态快照”观点。离散体验的内容可能是由无意识的信息保留所提供的,尽管是静态的,但却能够代表变化。例如,当我观察一只鸟时,我可能会经历短暂的静态视觉体验,这种体验不仅代表鸟在某个位置,还代表它正在以某种方式移动。在这个模型中,连续体验之间可能并不存在特殊的整合,因为这种整合的出现可以解释为它们是从平滑变化的无意识知觉活动中以相当高的频率采样而来的,而无意识知觉活动反过来又反映了环境的平滑连续变化。
尽管如此,算法循环(即机器学习中通常理解的循环,见第 2.1.3 节)对于具有类似人类时间特征的有意识体验似乎是必要的。
具有类似人类时间特征的意识经验可能是必要的。要使意识经验以任何方式代表环境的变化或连续性,就必须保留过去的信息,并用来影响现在的处理过程。正如我们的指标 RPT-1 所表示的那样,这也是将算法循环作为意识指标的另一个原因。中脑理论和感觉运动理论、UAL 框架以及一些PP 理论家也强调了随时间推移的整合,以及因此而产生的循环处理。
2.5 意识的指标
我们在第 2.1-2.4 节中讨论的每一种理论和建议,对于评估特定的人工智能系统是否可能有意识,或者在不久的将来建立有意识系统的可能性有多大,都有一定的价值。它们都有一定的证据和论据支持。我们作为本报告的作者,对支持每种理论的证据和论点的力度有不同的看法,对意识的背景观点也各不相同,这些都影响了我们对近期人工智能意识可能性的评估。在此,我们总结了第 2 节的研究结果,列出了从我们讨论过的理论和建议中提取的意识指标。
我们对这些指标的主张是,它们共同构成了一个参考意识科学当前观点的标准,用于评估特定人工智能系统中出现意识的可能性。拥有更多这些特征的系统更有可能具有意识。意识理论提出了比这更有力的主张,比如其中一些是意识的必要条件,而这些特征的组合则是共同的充分条件。我们并不赞同这些更有力的说法,但我们确实认为,在使用这些指标时,我们应该牢记它们与理论以及它们之间的关系——有些指标的组合比其他指标的组合更能证明意识的存在。这些指标单独提高概率的程度也不尽相同,有些指标是看似必要的条件,但单独使用并不会显著提高意识的可能性(也许包括RPT-1、GWT-1和HOT-1)。
3. 人工智能中的意识
第 2 节的研究结果对当前和不远的将来人工智能系统中的意识有何启示?在本节中,我们将从两个方面来探讨这个问题。首先,在第 3.1 节中,我们将依次讨论指标特性,并追问如何在人工智能系统中实现这些特性。其次,在3.2 节中,我们研究了几个现有的人工智能系统,作为案例研究,说明应该如何使用这些指标,以及我们的方法是如何评估一些现有系统的。我们讨论了大型语言模型和 Perceiver 架构(Jaegle 等人,2021a, b),特别关注全局工作空间理论,并考虑了最近的一些系统——PaLM-E(Driess 等人,2023)、"虚拟啮齿动物"(Merel 等人,2019)和 AdA(DeepMind 自适应代理团队,2023)——是否属于具身主体。
反思如何构建具有指标特性的系统,以及当前系统中是否存在这些特性,说明了我们工作中的一些重要经验。其中之一是,评估一个系统是否具备指标属性,通常涉及对属性描述的某种解释;指标属性的描述,就像它们所依据的理论一样,包含可能的实现所引出的歧义。如果要精确地描述指标属性,以至于不需要这种解释,那就意味着要远远超出科学意识理论所提出的主张,而这些更精确的主张往往也不太容易得到现有经验证据的支持。我们希望,由神经科学家和人工智能研究人员共同参与的跨学科意识研究,能使意识理论更加精确,并能开发出实证方法,为更精确的理论提供证据支持。
本节讨论的第二个启示是,在评估人工智能系统的意识时,并不总是只考虑系统的架构、训练和行为就足够了。例如,我们可能知道一个系统是一个递归神经网络,并通过 RL 训练成功地控制一个虚拟身体(virtual body)执行任务,但却不知道它的表现是否依赖于输出-输入或然性的学习模型。在这种情况下,我们可能不知道系统是否满足我们的具身化条件。要确定系统是否在训练过程中获得了这样一个模型,就需要采用可解释性方法,例如检查隐藏层中编码的信息(Olah 等人,2018)。
第三点启示是,尽管将意识理论应用于人工智能面临诸多挑战,但有充分的理由表明,利用人工智能的现有技术,可以满足当前计算理论提出的大部分或全部意识条件。这并不是说当前的人工智能系统很有可能有意识——还有一个问题是,它们是否以正确的方式结合了现有技术,而且无论如何,计算功能主义和当前的理论都存在不确定性——但这确实表明,有意识的人工智能并不仅仅是遥远未来的一种遥不可及的可能性。如果没有全新的硬件也能构建有意识的人工智能系统,那么现在就很有可能实现。
3.1 AI中指标属性的实现
3.1.1 实现RPT和PP
我们首先讨论 RPT 中的两个指标,即算法循环和感知组织,以及 PP 指标(即指标 RPT-1、RPT-2 和 PP-1)。之所以在这里加入 PP 指标,是因为正如我们将要看到的那样,最近的研究发现,在计算机视觉中使用预测编码可以促进对视觉场景的全局特征更加敏感的处理过程,这与前馈卷积神经网络对局部特征的敏感性形成鲜明对比,前者在分类任务中表现出色。
算法循环(RPT-1)是许多深度学习架构的一个特征,包括循环神经网络(RNN)、长短期记忆网络(LSTM)和门控递归单元网络(GRU)(LeCun 等,2015)。因此,构建具有 RPT-1 指标特性的系统是非常简单的。虽然它们的应用不太广泛,但也有在人工系统中实现预测编码(这是算法循环的一种形式)的方法(Lotter 等人,2017;Oord 等人,2019;Millidge 等人,2022)。这些系统符合 PP-1 指标。此外,根据预测任务训练并优化能效的循环神经网络会自我组织成不同的“预测”和“错误”单元群(Ali 等,2022)。
谈到感知组织(RPT-2),深度卷积神经网络(DCNN)等人工视觉模型已经取得了巨大成功,并经常被宣称是人类视觉的良好模型(Kietzmann 等人,2019;Lindsay,2021;Mehrer 等人,2021;Zhuang 等人,2021)。然而,关于当前系统是人类视觉良好模型的说法最近受到了批评(Bowers 等人,2022;Quilty-Dunn 等人,2022),更重要的是,DCNN 在视觉物体识别方面达到的人类水平并不意味着它们代表了有组织的视觉场景。Bowers 等人(2022)和 Quilty-Dunn 等人(2022)都引用证据表明,接受过物体分类训练的 DCNN 对局部形状和纹理的敏感度高于对整体形状的敏感度,而且往往会忽略物体各部分之间的关系,这表明 DCNN 并未采用综合场景的表征。Conwell 和 Ullman(2022)发现,最近的图像生成模型 DALL-E 2 在生成一个以陌生方式排列物体的场景时表现不佳。
从 RPT 的角度来看,这些观点可能被认为表明,有关模型能够对视觉刺激的特征进行分类,据说这种功能在人类中是无意识地执行的,但却不能执行进一步的功能,包括生成有组织的、综合的视觉场景表征,其中有些可能需要意识(Lamme,2020)。然而,目前的其他系统,包括预测编码网络,确实可以执行其中一些进一步的功能。
PredNet 是一种经过训练的预测编码网络,用于预测视频中的下一帧画面,它之所以引人注目,部分原因是这项任务的成功似乎需要对构成场景的物体及其空间关系进行表征(Lotter 等人,2017)。此外,有证据表明,PredNet 单元会对 Kanizsa 幻觉中的虚幻轮廓做出反应,而对这种幻觉的感知取决于从更广泛的内容中推断物体的存在(Lotter 等人,2020)。为了扩展这一发现,Pang 等人(2021)使用了一种技术,将反馈预测编码连接添加到前馈 DCNN 中,并发现进一步证据表明,该预测编码网络(而非初始前馈模型)对Kanizsa 错觉具有敏感性。然而,Lamme(2020)声称,Kanizsa 错觉只需要感知“推理”,而不是 RPT 所理解的感知器官。
除了预测编码之外,人们还开发了其他类型的系统,专门用于表示视觉场景中的物体及其关系。MONet 就是一个例子(Burgess 等人,2019),它使用循环注意机制和变分自动编码器来分解和重建场景。在该系统中,注意力网络依次挑选出单个物体,由变分自动编码器进行识别和重建。另一个系统是“物体场景表征Transformer”(Object Scene Representation Transformer),经过训练后可从新的角度预测复杂场景的外观,这项任务(与视频预测一样)需要将场景表征为由空间中的物体组成(Sajjadi 等,2022)。表示有组织的感知场景是机器学习中一个活跃的研究领域,目前已开发出多种方法(Greff 等,2020)。
3.1.2 实现GWT
在人工系统中实施 GWT 已成为多项研究的主题,包括 VanRullen 和 Kanai(2021)以及 Goyal 等人(2022)的最新研究。在此,我们将简要介绍这两项研究,然后依次讨论指标 GWT-1 至 GWT-4。
VanRullen 和 Kanai(2021)的建议涉及一系列专门的神经模块,其中至少有一些是生成网络,可以产生行为输出或自上而下地驱动感官处理。每个模块都有自己的低维潜在空间,其中代表着关键信息。工作空间是一个共享的潜空间,经过训练后可对模块潜空间中的表征进行无监督翻译,从而使其他模块也能获得模块所携带的信息。工作区的容量小于模块潜空间的总和,并使用一种与任务相关的键查询关注机制来决定工作区广播哪些信息。因此,这种架构包含了瓶颈、全局广播和状态依赖选择等重要特征。不过这项工作只是一个可能实现的“路线图”,而不是一个工作系统。 它面临着一个重大的未决问题,即如何训练注意力机制,以便在工作区的潜在输入中进行选择,尤其是如何实现控制相关模块的扩展功能操作序列所需的注意力操作序列。
与此同时,Goyal 等人(2022 年)试验了一种实现全局工作空间的方法,该方法同样涉及使用键查询注意力来选择多个模块中哪个模块将写入共享空间,然后将共享空间的内容广播给所有模块。在这种情况下,各模块经过共同训练,可生成相互可用的表征,从而避免了在工作区进行翻译的需要。这项工作中开发的具体实现方法有一个局限性,即 "模块 "是处理序列中的标记或图像部分的元素,因此它们是否是能够并行运行的专用子系统值得怀疑;相反,它们各自以类似的方式为执行单一任务做出贡献。
尽管这两项研究都没有产生一个能够明确满足所有四项 GWT 指标的工作系统,但这似乎是一个现实的目标,我们将依次对这些指标进行论证。指标 GWT-1 规定,系统必须有能够并行工作的专用系统或模块。为实现全局广播,这些模块必须由循环神经网络实现,除非它们是整个系统的“输出”模块,不向工作区提供信息。这些模块可以作为输入:
我们认为我们在本报告中的主要贡献是:
- 一种或多种模式的感官输入。
2. 来自少数其他模块的输入,这些模块通常是协同工作的。例如,一个“眼动”模块可能会从一个“视觉显著性”模块获取输入信息,以便自下而上地对潜在的重要物体进行快速眼动。
3. 来自“全局工作空间”执行模块的自上而下的信号。
正如 VanRullen 和 Kanai(2021)所建议的那样,这些模块可能会针对狭小的任务进行独立训练。或者,它们也可以与工作空间进行端对端联合训练,以实现某些全系统目标,由此自然会产生模块对子任务的专业化。Goyal 等人(2022)就采用了端到端训练方法,不过是针对相对简单的任务(另见 Goyal 等人,2020)。
实现 GWT 的第二个要素是容量有限的工作区,它是另一个具有不同属性的神经模块。限制工作空间容量的最简单方法是限制其活动空间的维数。另一个有趣的方法是训练一个具有吸引子动态特性的循环神经网络。吸引子是动态系统中的一种状态,当达到该状态时,在没有输入或噪声的情况下,系统仍将保持稳定。吸引子动力学限制容量的原因在于,它诱导了神经轨迹中初始条件与吸引子之间的多对一映射(任何进入吸引子吸引盆地的神经轨迹都会向该吸引子收敛)。因此,这些吸引子动力学会收缩稳定状态空间的大小,从而诱发信息瓶颈。
Ji, Elmoznino 等人(2023)认为,工作空间中的吸引子动力学有助于解释意识经验的表面丰富性和不可言传性。
对于全局广播指标 GWT-3,基本要求是所有模块都将工作空间表征作为输入。正如我们所见,这意味着必须有某种机制来确保所有模块都能使用这些输入,例如 VanRullen 和 Kanai(2021)提出的翻译机制。在 Dehaene 及其同事(Dehaene & Naccache 2001;Dehaene & Changeaux 2011;Mashour et al. 2020)提出的全局神经元工作区理论中,工作区表现出特殊的动态特性:一个表征要在工作区中并在全局范围内广播,就必须通过循环来维持。虽然目前还不清楚这是否是必要的,但如果使用表现出吸引子动力学的网络来实现工作空间,这种行为就可以在人工智能中复制。在这种情况下,广播机制可能由一个泄漏神经整合器(leaky neural integrator)组成,其动态具有缓慢的时间尺度,因此需要持续的输入才能将其置于特定状态,而在没有这些持续输入的情况下,它就会放松回到某种基线状态(如在通过证据积累进行决策的模型中)。这种广播机制将产生自上而下的信号,输入每个专门模块。
指标 GWT-4 包括以下条件:系统必须使用与状态相关的注意力机制,工作区必须能够通过连续查询模块来执行复杂任务。关于与状态相关的注意力机制,VanRullen 和 Kanai(2021)以及 Goyal 等人(2022)都建议使用键查询注意力,这在当前的人工智能模型中很常见。可以根据工作区的当前状态计算出查询,并计算出所有其他模块的键。工作区的查询和特定模块的键之间的相似性将被所有其他模块的相似性归一化,以引入模块之间的竞争,这些归一化的相似性将决定每个模块的值对工作区净输入的贡献程度。也就是说,在每个时间点都将采用标准的键查询关注机制,根据工作区的当前状态来计算工作区的输入。
由于在工作区和模块之间存在计算循环,因此本文所述的模型在通过时间展开时能够满足 GWT-4 的第二部分要求,即利用工作区连续查询模块以执行复杂任务的能力。模块接收来自自下而上的感官输入和少数其他模块的输入,但也接收来自工作区的自上而下的输入。这意味着,举例来说,一个模块可以通过控制工作区的内容来控制其他模块。工作区对模块的有序招募属于系统的计算范围,因此,如果在训练过程中有利于模块的招募,它就会出现。不过,要让这样的系统学会以有用的方式组成模块并执行复杂的任务,还需要适当的训练,而构建适当的训练机制可能是实施 GWT 的一大挑战。
3.1.3 实现PRM
现在,我们将考虑如何在人工智能中实现作为代表性计算 HOT 的感知现实监控理论。也就是说,我们要考虑如何构建一个具有指标属性 HOT-1 到 HOT-4 的人工智能系统。尽管 PRM 研究人员声称目前还没有人工智能系统能满足所有要求(Dehaene 等人,2017;Michel & Lau,2021;Lau,2022),而且据我们所知还没有任何实现尝试,但标准的机器学习方法足以实现该理论的大多数要素。我们首先考虑“性质空间”的实现——即满足 PRM 关于现象性质基础的可能表征空间——然后再讨论 PRM 的核心主张,即一阶表征由于被高阶监测机制表征为“真实”而变得有意识。
指标 HOT-4 指出,系统必须有稀疏而平滑的编码,生成一个 "性质空间"。所有 DNN 的最重要特征之一是,每一层都为模型赋予了一个平滑的表示空间,其中可能激活的连续范围编码了可能输入的范围。这些表征空间的平滑性被认为是它们能在测试时对新输入进行泛化的主要原因之一;即使新输入促使某个层进入不同的激活模式,只要该模式在模型的训练分布范围内(即只要该层在训练时以类似模式激活),后续层仍能对其进行解释(Belkin 等人,2018;Bartlett 等人,2021)。事实上,有证据表明,当前 DNN 学习到的感知表征空间已经与人类视觉系统的感知表征空间非常相似,这意味着它们相应的 "性质空间 "可能已经基本一致。例如,Kriegeskorte(2015)发现,DNN 中许多视觉刺激的表征之间的成对不相似矩阵与神经活动中观察到的表征密切相关,网络中的连续层与视觉皮层的分层组织之间甚至存在对应关系——尽管最近的研究使这一情况变得更加复杂(例如,见 Golan 等人,2020;Lindsay,2021;Bowers 等人,2022)。
机器学习的标准方法可用于满足表征稀疏的条件。例如,正则化技术可以通过最小化网络表征的大小或输入与表征之间的互信息,在 DNN 模型中强制稀疏表征(Tishby,2000)。使用 SoftMax 等归一化函数的层也能增加稀疏性,在这种函数中,较高的值会抑制表征中较低的值。
指标 HOT-1 和 HOT-2 规定,模型必须同时包含对感官数据的一阶知觉再现,和对特定一阶再现的可靠性或 "真实性 "进行度量的高阶表征。为了满足这些条件,大量已知的深度学习解决方案都是可行的,我们将对其中的几种进行回顾。重要的是,所有这些解决方案都有一个由两部分组成的简单架构设计: (1) 一个(一阶)神经网络将感官数据和/或自上而下的信号作为输入,并生成分布在层级结构中的若干感知表征 (2) 同时,一系列独立的(高阶——具体来说是二阶)神经网络各自将一阶层的激活作为输入,然后输出一个标量,代表该层的一阶表征是真实的概率。满足条件的解决方案主要取决于如何训练二阶网络。
如果偶尔会出现监督信号,为二阶网络提供有关一阶表征可靠性的 "真值",那么二阶网络就可以通过标准监督学习进行训练,以估计正确性的概率。获取这种 "直值 "信号可能很困难,但并非不可能。例如,如果一阶表征误差的来源是网络的内部噪声,那么只需对一段时间内有噪声的一阶表征进行平均,就能估计出真值。另一种方法是通过比较同一感知在不同感官模式下的表征(例如,利用视觉反馈验证声音的真实性)或通过运动(例如,在已知运动动作的情况下检查视觉感知是否表现出应有的行为)来获得真值。
如果无法直接获得真值,二阶网络可以在其他代用任务上进行训练,在这些任务中,信号的可靠性是影响性能的一个隐含因素。例如,二阶网络可以尝试利用过去的一阶表征来预测即将出现的一阶表征。因为外部产生的信号有时比内部产生的信号更容易预测——对坠落的球的感知比随机内部噪声产生的幻觉更容易预测——当网络的预测误差较大时,二阶网络就会对一阶表征的真实性赋予较低的概率。另外,当想象受到认知控制时,与不受认知控制时(我任由思绪飘荡)相比,想象会导致更多可预测的感官后果(我想象一只粉红色的小熊,一只粉红色的小熊就出现了)。因此,努力控制的程度可以作为另一个内部信号,训练现实监控系统(Dijkstra 等人,2022)。通过这些方法,二阶网络可以学会使用可预测性作为 "真实性 "的提示,即使在没有监督信号的情况下也是如此。这些方法与预测编码密切相关,后者已在现代深度学习中得到应用(如 Millidge 等人,2022;Oord 等人,2019;Alamia 等人,2023),只不过这里的预测是跨时间而不是跨层级进行的。
训练二阶网络的其他方法涉及将其视为世界模型。例如,深度学习中的贝叶斯方法将感知视为一个推理过程,其中神经网络试图推断可能产生数据的潜在变量的值。为了实现理想的贝叶斯推理,必须根据这些潜变量的后验概率对其进行采样,后验概率与它们的先验概率乘以它们在某种世界模型下产生数据的可能性成正比,该世界模型规定了潜变量如何产生感官观察。这种观点与 PRM 非常契合;潜变量值的推理机制可视为产生感知的一阶表征,而二阶网络则评估一阶表征为真的概率。
虽然贝叶斯推理一般来说难以实现,但也有几种近似方法。例如,最近一类名为生成流网络(GFlowNets)的模型,为使用现代深度神经网络进行近似贝叶斯推理提供了一个框架(Bengio 等人,2021;Bengio 等人,2022),甚至可用于在训练世界模型(二阶网络)的同时联合训练推理模型(一阶网络)(Hu 等人,2023;Zhang 等人,2023)。这种拟议的 GFlowNet 架构(与其他近似贝叶斯推理方法一样)也与意识的预测处理理论有关,该理论认为意识知觉是大脑对其自身感觉输入的潜在原因的最佳猜测(Seth 2021)。不过,PRM 情况下的一个重要区别是,在一阶推理系统对知觉潜变量进行采样后,只有当二阶世界模型赋予它们足够高的验证概率时,它们才会成为有意识的知觉,而在二阶世界模型中,可以使用硬阈值或软阈值来产生 "真实 "标签。
请注意,上述机制也可用于在系统中产生内部生成的有意识体验。例如,一个自上而下的想象模块可能会首先产生一个目标(例如,想象一个苹果),然后相应地驱动一阶网络感觉和知觉层中的神经活动。随后,二阶世界模型将为这一活动分配一个真实性概率。如果想象模块能够在感觉层和知觉层中产生足够连贯的表征,那么二阶模型就会像对待外部产生的信号一样,给这些信号贴上 "真实 "的标签,想象中的内容就会被有意识地体验到。大脑中也可能存在类似的机制,因为有研究表明,在想象和自下而上的感知过程中,感觉区域的神经活动是相似的,而且相似程度与体验的生动程度相关(Dijkstra 2019, Dijkstra 2023)。
最后一种可能性是通过对抗方法隐式学习世界模型。特别是生成对抗网络(GANs)(Goodfellow 等人,2014)是一类方法,其中生成器网络试图对合成数据进行采样,而判别器则试图将真实数据与生成器生成的合成数据区分开来。生成器经过优化,可以骗过判别器,使其预测其输出为 "真实 "数据,结果是,如果使用的网络足够强大,稳定的解决方案是生成器从真实数据分布中采样数据。GAN 中的判别器相当于 PRM(Lau 2022)提出的高阶监测机制。基于 GAN 的 PRM 实现可能涉及:(a) 一阶感知网络,该网络根据感知数据生成感知表征;(b) 生成器网络,该网络首先对合成感知表征进行采样,然后根据这些感知生成合成感知数据,从而反转这一过程;(c) 二阶网络,该网络经过训练,可对一阶网络生成的真实感知图元和生成器生成的合成图元进行判别(Gershman,2019)。与显式世界模型的情况一样,我们随后可以根据一阶网络的表征,对鉴别器的输出应用硬阈值或软阈值,从而生成 PRM 的 "真实 "标签。
现在,我们还需要考虑指标 HOT-3,它涉及元认知监控机制输出的消费者。指标 HOT-3 指出,这应该是一个 "一般的信念形成和行动选择系统",而且应该有一种 "强烈的倾向 "来根据监控机制的输出进行更新。这一条件有双重动机:监控机制的功能是为消费者服务,而消费者依赖于被标记为 "真实 "的一阶表征的准确性;这些输入消费者的 "力量 "旨在解释意识经验的力量和持久性。
为了实现 "消费者",我们可以将一个或多个更高层次的网络实例化,这些网络同样只将带有 "真实 "标签的感知表征作为输入。实现这一点的方法可能有很多,但其中一种可能是,对高层网络使用标准的Transformer架构,并稍作调整。在Transformer中,高层网络将产生一个或多个查询向量(直观上代表当前的计算目标),然后根据其关键向量的值(直观上代表感知的 "种类 "或其 "数据类型")来处理一阶感知表征。在标准Transformer中,每个感知将根据其关键向量与上层网络查询之间的相似性进行调制,然后整合到下游计算中。如果我们希望额外利用二阶网络产生的 "真实 "标签,我们只需将查询-密钥相似度乘以每个相应感知的 "真实 "标签值,这样就能让它们有效地充当先验掩码,在此掩码上,概念可能会影响Transformer中的计算。重要的是,这种架构与 PRM 对意识知觉顽固性的预测是一致的(Lau,2019 年):即使我们在认知上意识到某个知觉是不准确的(如幻痛或药物引起的幻觉),我们仍然有强烈的倾向将其纳入我们的高层次推理。在这种基于Tranformer的架构下,意识体验无法被推理排除。这是因为高层网络只是将由其 "真实 "标签调制的知觉作为输入,而自身并不具备改变这些 "真实 "标签的能力。
本建议的重点是指标 HOT-3 的第二个方面("强烈倾向"),而不是消费者应该是一个一般的信念形成和行动选择系统。哲学家们对一个系统需要具备哪些特征才能算作形成信念有各种不同的看法,但有一个似是而非的必要条件在这里可能是充分的,那就是该系统从事工具性推理,从而导致行动选择(见第 2.4.5 节)。
3.1.4 实现AST
有两项著名的研究在人工系统中实现了简单的注意力模式。Wilterson 和 Graziano(2021)的系统在一个每层有 200 个神经元的三层神经网络上使用了强化学习,学习如何接住一个在不可预测路径上下落的球。该系统的主要输入是一个显示球位置的噪声 "视觉 "阵列。该阵列包括一个 "注意力聚光灯"——阵列中去除噪声的一部分,系统可以学习如何移动该聚光灯。因此,解决任务的一个自然策略是让系统学会将聚光灯置于球的上方,这样视觉阵列中的噪声就不会干扰系统追踪和捕捉球的能力。第二个输入是 "注意力图式",它代表了聚光灯在阵列中的当前位置。Wilterson 和 Graziano 发现,当注意力图式可用时,该系统在学习执行任务方面要成功得多,即使在移除图式时聚光灯仍然存在。
这个非常简单的系统确实具有指标属性 AST-1 的某些部分,即注意力图式,因为它使用了类似注意力机制的表征来控制该机制,从而提高了成绩。然而,这并不是一个预测模型,注意力聚光灯与注意力本身有本质区别,因为它是输入的一个简单的可控特征,而不是一个具有多个自由度的内部过程,控制着信息在系统中的流动。
最近,Liu 等人(2023)在多代理强化学习任务中测试了几种不同的系统,这些系统都采用了键查询值注意力。他们的系统包含三个主要元素:多头注意力层、用于 "内部控制 "的递归神经网络和策略网络。在他们认为最能准确实现注意力模式的版本中,注意力层被应用于系统的输入,并将信息发送到产生行动的策略网络,内部控制网络既学习预测注意力层的行为,又影响这种行为。该系统的表现优于由相同组件组成的不同架构的其他系统。
与 Wilterson 和 Graziano 的系统相比,该系统的优势在于使用了学习到的注意力预测模型,而不是将无懈可击的表征作为输入。它仍然只用于二维视觉环境中相对简单的任务,而且这一研究方向需要注意的一点是,人工智能中的注意力与神经科学所理解的注意力并不完全类似(见方框 3)。不过,该系统确实为构建具有注意力模式指标的系统提供了一条途径。
3.1.5 实现主体性和具身化
其余指标是主体性和具身化。可以说,强化学习对于我们所描述的 "主体性"("从反馈中学习并选择输出以追求目标")是足够的,因此满足指标 AE-1 的这一部分可能非常简单。强化学习在当前的人工智能中应用非常广泛。为了重述 "强化学习足以实现主体性 "这一论点,强化学习的基本任务是让系统学会在一种环境中最大限度地提高累积奖励,在这种环境中,系统的输出不仅会影响它立即获得的奖励,还会影响它未来获得奖励的机会。因此,RL 算法被设计成对输出结果非常敏感,使系统更有可能在多个时间步长内重复那些能带来更大回报的输出。这意味着 RL 与其他形式的机器学习之间存在着对比。与通过监督或自我监督学习训练的系统一样,RL 系统也会逐渐逼近所需的输入-输出函数。然而,在 RL 系统中,理想的输入输出函数是指输出有利于实现目标,而这些目标只能通过系统与环境之间的长时间交互才能实现。最重要的是,RL 系统通过对输出、后续输入和再控制之间关系的敏感性来学习这些功能。基于模型的 RL 系统学习这些关系的模型,但无模型系统对这些关系也很敏感。因此,RL 系统通过学习和选择行动来实现目标(Butlin 2022, 2023)。
指标 AE-1 的第二部分指出,如果系统表现出 "对竞争目标的灵活反应",那么意识的概率就会提高。这个句子的例子是动物平衡多重同化驱动力:这需要对环境变化敏感的优先级排序。针对这一问题,人们探索了几种计算方法,包括强化学习(Keramati 和 Gutkin,2014;Juechems 和 Summerfield,2019;Andersson 等,2019)。其中一项建议是使用多个模块,独立学习如何最大化不同的奖励功能,每个模块为可能的行动打分,然后选择总分最高的行动(Dulberg 等人,2023)。在稳态情况下,这些奖励函数可能各自对应一个稳态驱动力,如果其中任何一个偏离设定点太远,都会受到严重惩罚。
我们的体现指标 AE-2 指出,系统应使用输出-输入模型(也称前向模型)进行感知或控制。神经科学家已经在人类身上发现了这种模型的一些特殊用途,它们与体现特别相关。在感知方面,对系统自身动作的感官效应的预测,可用于区分这些动作对感官刺激造成的变化与环境事件造成的变化。进行这种形式推理的系统或隐或显地将自身与环境区分开来。在运动控制中,前向模型可用于状态评估和反馈控制,从而快速调整复杂的效应器。重要的是,要把输出-输入模型的这些用途与规划等其他用途区分开来,因为后者并不意味着具身化。
为与感知和控制相关的任务学习输出-输入模型很常见,但目前符合这些具体描述的人工智能系统实例却很少。例如,视频预测是一项研究较多的任务(Oprea 等人,2020 年),其中包括预测视觉输入将如何在系统输出的条件下发展(Finn 等人,2016)。但这还不足以满足我们所描述的感知用途,因为感知用途还包括理解无法从输出中预测的外生变化。输出-输入模型被用于基于模型的强化学习控制中,促进了四旋翼无人机(Becker- Ehmck 等,2020)和其他机器人(Wu 等,2022)的成功控制。但目前还不确定这些模型在这些情况下是否用于特定的控制目的,而不是用于规划,我们将在第 3.2.2 节中进一步探讨这一话题。
Friedrich等人(2021)所描述的系统是近期研究的一个很好的例子。在该系统中,卡尔曼滤波法(Todorov 和 Jordan,2002)被用于将前向模型与有时间延迟的感官输入相结合,以估计系统在其环境中的当前状态。这些估计值随后被用于正在进行的运动控制,尽管只是在虚拟环境中对相对简单的效应器进行控制。
3.2 当前系统的案例研究
3.2.1 GWT的案例
在实践中,一个特定的人工智能系统是否具备指标属性并不总是一目了然。其中一个原因是,我们没有对每个指标给出绝对精确的定义。另一个原因是,深度学习系统是如何工作的,包括它们在中间层代表什么,往往并不透明。在本节和第 3.2.2 节中,我们将介绍案例研究,说明如何使用这些指标来评估当前的人工智能系统。在此,我们将重点关注 GWT 指标(GWT-1 至 GWT-4),以及因不同原因而引人注目的两类系统。这两类系统分别是基于Transformer 的大型语言模型(LLM),如 GPT-3 (Brown et al. 2020)、GPT-4 (OpenAI 2023) 和 LaMDA (Thoppilan et al. 2022),它们因在自然语言任务中的出色表现而备受瞩目,并吸引了公众的关注;以及 Perceiver (Jaegle et al. 2021a) 和 Perceiver IO (Jaegle et al. 2021a) ,它们之所以引人注目,是因为 Juliani 等人(2022)认为它们 "实现了一个有效的全局工作空间"。这两类系统都不是为实现全局工作空间而设计的,但有理由认为,它们都具备全局工作空间的某些指标特性。
在Transformer 中,一种名为 "自我注意力 "的操作被用来整合输入信息的不同部分,这些部分通常是序列中的位置(见方框 3:注意力;Vaswani 等人,2017 年)。如果我们把处理来自每个位置(注意力头)的信息的系统元素视为模块,那么Transformer 架构与全局工作空间之间就存在着基本的相似性:两者都整合了来自多个模块的信息。变形器由两类层堆叠而成,它们相互关联:注意头层负责自我注意操作,在不同位置之间移动;前馈层负责前馈操作。Elhage 等人(2021)对Transformer 的解释将其描述为由 "残余块 "组成,每块由每种类型的一层组成,处理从 "残余流 "中提取的信息,然后将其添加回 "残余流"。
有了 "残留流 "的概念,我们就可以认为,Transformer 具有 GWT-1 至 GWT-3 的指标属性,即它们具有模块、引入瓶颈的有限容量工作区和全局广播。残留流是(所谓的)工作空间,其维度低于写入和读出的自我注意层和前馈层(Elhage 等人,2021)。所谓 "全局广播",是指残差流中某一层的信息可被下游注意头用于影响任何位置的进一步处理。在特定层添加到残留流中的信息也取决于残留流在较早层的状态,因此根据这种解释,我们可以认为Transformer 满足了 GWT-4 中与状态相关的注意力要求。
这种说法的一个问题是,残差流的维度是否构成瓶颈值得商榷,因为它与整个系统的输入维度相同。然而,这一论点的一个更根本的问题在于,Transformer 并不是递归的。剩余流不是一个单一的网络,而是一系列穿插在其他网络之间的层。没有模块将信息传递到残差流,然后再接收回来,相反,当注意头和前馈层结合起来向残差流写入信息时,只会影响下游不同注意头和前馈层接收到的信息。思考这个问题的一种方法是询问Transformer 的哪些部分是模块。如果模块局限于特定层,那么就不存在全局广播。但如果模块不局限于特定层,那么就无法区分剩余流和模块。Transformer 缺乏具有全局工作空间的系统的整体结构,因为没有一个独立的工作空间整合其他元素。基于 Transformer 的大型语言模型拥有任何源自 GWT 的指标属性的可能性都相对较小。
与此同时,两个版本的 Perceiver 架构比 Transformer 更接近于满足 GWT 指标,但我们认为仍无法满足所有指标。Perceiver 架构旨在解决 Transformers 的一个弱点,即自我关注操作是通过产生成对交互来整合位置的。这在扩展到高维输入时计算成本很高,因此需要采用一种使用单一有限容量潜空间来整合专家信息的方法(Jaegle 等人,2021a, b;Goyal 等人,2022)。具体而言,感知器 IO 设计用于处理来自多个领域或模式的输入,并使用多个输入编码器和输出解码器产生各种输出。它使用自注意来处理潜空间中的信息,并使用相关的交叉注意操作来从输入模块中选择信息并写入输出模块。潜空间在自注意层和交叉注意层之间交替,使其能够反复从输入模块获取新信息。感知器 IO 在语言处理、预测视频中的动作、图像分类以及处理《星际争霸 II》中以行动选择为目的的单元信息等任务中都取得了很高的性能(Jaegle 等,2021b)。
Perceiver 架构允许对输入序列进行异步处理,潜空间状态随每一个新输入而更新,同时也受其先前状态的影响。因此,可以说 Perceiver 具备了 GWT-1(专用模块)和 GWT-2(瓶颈)的指标特性,以及 GWT-4 的第一部分(依赖状态的注意力)。不过,值得注意的是,虽然架构中可以使用专用模块,但这些模块并不是必须的--Perceiver 可用于具有单一功能的输入网络。此外,更重要的是,可连续处理的输入数量受限于潜空间中交叉注意层的数量。这意味着,虽然 Perceiver 中的注意力与状态有关,但在实际应用中,系统必须重置才能开始新任务,因此其状态是由当前任务的先前输入决定的。
与 Transformers 的情况一样,Perceiver 全局工作空间最明显的缺失是缺乏全局广播。Perceiver IO 有多个输出模块,但在任何给定的试验中,其输入都包括 "输出查询",即指定需要哪种输出。因此,只有一个输出模块对来自工作区的信息采取行动。此外,输入模块一般不会接收来自工作区的信息。因此,虽然 Perceiver 架构是成功使用类似工作区的方法来改进人工智能功能的重要范例,但它离完全实现 GWT 还有一定距离。
3.2.2 具身主体的案例
现在,我们将举例说明人工智能系统 AE-1 和 AE-2 的要求,这两个指标涉及主体性和具身化。本小节讨论的系统有 PaLM-E(Driess 等人,2023),被描述为 "具身多模态语言模型";通过 RL 训练的 "虚拟啮齿动物"(Merel 等人,2019);以及 AdA,一个基于 Transformer 的大型 RL 训练 "自适应主体"(DeepMind 自适应代理团队,2023)。
PaLM-E 是一种仅供解码器使用的 LLM(Driess 等人,2023),由 PaLM(Chowdhery 等人,2022)微调而来。它将编码后的多模态字符串(可包括文本和图像)作为输入,并将文本标记作为输出。与其他 LLM 一样,它可以自动生成扩展的文本字符串。它的使用需要一个编码器,与合适的编码器结合使用,可在纯语言任务和视觉语言任务(如视觉问题解答)中表现出色。不过,PaLM-E 也可以与单独训练的策略单元相结合,将自然语言指令和视觉上下文映射到低级机器人动作中。PaLM-E 研究使用了 Lynch 等人(2022)的策略,这些策略经过训练,可以模仿人类对机器人致动器的控制。在这种设置下,系统可以接收来自摄像头的输入,将其与人类提供的任务指令相结合,生成并执行动作计划。PaLM-E 生成高级计划,而策略单元则提供低级视觉引导的电机控制。如有必要,可根据新的观察结果更新计划。
在考虑 Palm-E 时,我们可以关注几个不同的系统:PaLM-E 模型本身、策略单元或由这两个元素及其控制的机器人组成的完整系统。
完整的系统可以非常自然地被描述为一个具向化的主体。在接到任务后,它可以制定计划,并通过在与人类共享的空间内移动机器人 "身体 "来执行计划。不过,该系统的两个主要组成部分实际上都经过了模仿人类行为的训练。PaLM-E 是通过自我监督学习来预测人类生成的字符串中的下一个标记,而策略单元则是模仿人类的视觉运动控制来训练的。因此,该系统可以说是在模仿规划和使用视觉运动控制来执行计划,而不是真正做这些事情。它不会从成功或失败的反馈中学习追求目标。
由于完整的系统包括一个机器人,因此将其描述为 "具身 "是很自然的。然而,根据我们所采用的说法,要使一个系统具有具身视角,它必须模拟其输出如何影响环境,以便在感知中将自己与环境区分开来,或促进运动控制。我们很难理解完整的 PaLM-E 系统是如何学习到这种模型的,因为它没有经过端对端的训练,因此在训练过程中没有接触到其输出对环境的影响。这些组件也是在几乎没有外来变化的环境中进行训练的,因此不需要学习如何区分输入变化的来源。
在此,政策单元或许是最佳的具身人案例。这是一个基于 Transformer 的网络,经过训练可将视频和文本映射为模仿人类控制的连续动作。在人类运动控制中,前向模型(将输出映射到预测输入)用于生成预期,以便与意图和感官输入进行比较,从而实时修正运动轨迹(McNamee & Wolpert,2019)。这可能需要将自我与环境区分开来,因为外生事件可能是造成匹配错误的原因。政策单元原则上可以使用类似的机制,因为网络的输入包括一些观察历史。这就意味着,它可以学会检测在过去的状态下本应预测到的观测结果与现在接收到的观测结果之间的不匹配,并据此修正自己的行动。例如,如果它接到指令向东推动一个木块,但在行动过程中观察到木块正在向北移动,这就会促使它进行修正。
也可以说,政策单元是一个主体,尽管它不是通过 RL 训练出来的。它可以学习与目标进展相关的输入序列(由另一部分输入指定),并调整其输出以生成这些序列。然而,这对代理来说是否足够是个问题,因为尽管系统学习了输入序列以及在面对这些序列时应产生哪些输出,但它并没有学习其输出如何影响输入——因此它无法产生输出,因为它期望这些输出有助于产生正确的序列。类似的反对意见也可以用来反对 "具身化 "的观点:系统可以学会检测任务背景下过去和现在的观察结果之间的 "不匹配",但不能检测过去的观察结果和行动与现在的观察结果之间的 "不匹配"。这并不是说政策单元肯定缺乏主体性和具身化,而是为了说明与这些问题相关的考虑因素。
鉴于在模拟环境中控制一个化身就足以实现具身,Merel 等人(2019)的 "虚拟啮齿动物 "很有希望成为这些属性的候选者。它通过 RL 训练,足以实现主体。该系统是根据实验室大鼠的解剖结构,通过实现具有 38 个自由度的虚拟 "身体 "而构建的。基于递归 LSTM 的演员批判架构通过 RL 进行端到端训练,利用丰富的视觉和本体感觉输入来控制这个身体,在静态 3D 环境中执行四项任务。这种架构足以让系统学习到其输出如何影响输入的模型,并将其用于感知和行动。由于使用的是循环网络,新的输入可以在近期输入和输出的存储表征背景下进行处理。因此,原则上,系统可以根据其过去行为所产生的预期来处理输入和选择输出,也就是说,可以根据自我模型的输出来处理输入和选择输出,而自我模型将(或许隐含地)代表其身体稳定属性的信息。
然而,在这项研究中,环境并没有发生外在的变化,而且似乎可以通过产生一系列定型动作的组合来完成任务,如奔跑、跳跃和饲养。分析表明,该系统确实学会了类似的行为。这些动作可能不需要感知反馈的持续控制。这就提出了一个问题:任务需求是否足以让系统学会使用自我模型,而不是相对简单的输入-输出策略。
DeepMind 的 "自适应主体 "AdA 也是通过 RL 进行端到端训练,以控制 3D 虚拟环境中的化身(DeepMind 自适应主体团队,2023)。该系统包含一个Transformer,它编码对过去几百个时间步(具体数字在该团队的实验中有所不同)的观察结果进行编码,包括过去的行动和奖励以及任务指令和感官输入,并输入一个 LSTM,该 LSTM 经过训练可预测未来的行动、值和奖励。该系统在难度不断增加的各种任务中接受训练,以实现元 RL。这意味着它学会了一种隐式在线学习算法,使其能够在不更新权重的情况下,根据记忆中的观察结果——编码最近过去时间步骤的变换器——学习执行新任务。经过这样的训练,系统能够以人类的时间尺度适应环境中的新任务。
AdA 是一个比虚拟啮齿动物强大得多的系统,尽管它控制的化身复杂程度要低得多。它的环境不那么稳定,这是因为它执行的某些任务需要与另一个主体合作,但它的重点是学习生成和测试新任务的行为策略,而不是协调复杂的动态。因此,我们可以再次质疑该系统是否面临着动物自我建模进化过程中似乎一直存在的挑战。然而,与虚拟啮齿动物不同的是,它有一个特定的训练目标,即根据过去交错的输入和输出序列生成预测。因此,在我们所考虑的三个系统中,AdA 可能是最有可能按照我们的标准被嵌入的系统,尽管它不是物理嵌入的(如 PaLM-E),也不是主要为复杂化身的运动控制而训练的(如虚拟啮齿动物)。
4. 意义
在最后一节中,我们将在更广泛的背景下讨论人工智能中的意识问题。我们考虑了将意识归因于人工智能系统不足或过度的风险(第 4.1 节),以及意识与人工智能能力之间的关系(第 4.2 节)。我们还在第 4.3 节中提出了一些有限的建议。我们在本节中的评论很简短——本报告的主要目的是为人工智能中的意识提出一种科学方法,并确定当前的科学理论对这一前景的暗示,而不是调查其道德或社会影响。
4.1 AI是否有意识
关于人工智能意识的辩论双方都存在风险:与意识归因不足相关的风险(即无法识别具有意识的人工智能系统)和与意识归因过度相关的风险(即将意识归因于并非真正有意识的系统)。正如在其他意识不确定的情况下,如其他动物(Birch,2018)和意识障碍者(Peterson 等,2015;Johnson,2022),我们必须考虑这两种类型的风险。
4.1.1 低估AI是否有意识
正如许多学者所指出的,随着我们开发出越来越复杂的人工智能系统,我们将面临越来越多有关其道德地位的难题(Bryson 2010, Gunkel 2012, Schwitzgebel & Garza 2015, 2020, Metzinger 2021, Shulman & Bostrom 2021)。哲学家们对有意识与道德地位之间的确切关系存在分歧,但任何能够有意识地承受痛苦的实体都值得道德考量,这一点非常可信。如果我们能减少有意识的痛苦,在其他条件相同的情况下,我们就应该这样做。这就意味着,如果我们不承认有意识的人工智能系统的意识,我们就有可能造成或允许造成道德上的重大伤害。
用非人类动物作类比有助于说明这个问题。在强大的经济动机驱使下,人类虐待了大量养殖动物。无论这种虐待是否取决于没有赋予这些动物意识,它都说明了潜在的问题。就人工智能而言,对意识的归属可能会有相当大的阻力,部分原因是人工智能的开发者可能有强大的经济动机来淡化对福利的关注。因此,如果我们建造的人工智能系统能够有意识地承受痛苦,那么只有当研究人员清楚地认识到并传达这种能力时,我们才有可能防止它们大规模地承受痛苦。然而,鉴于上文提到的意识方面的不确定性,我们可能会在意识到自己已经创造出有意识的人工智能系统之前很久就这样做了。
在这种情况下,重要的一点是,有意识并不等于能够有意识地承受痛苦。至少在概念上,有可能存在这样一种有意识的系统,它们没有有价值或有情感(valenced or effective)的有意识体验,也就是说,它们没有感觉好或不好的体验(Carruthers,2018;Barlassina & Hayward,2019)。如果只有有价值的体验才具有特殊的道德意义,那么确立人工智能道德地位的关键问题。如果只有有价值的体验才具有特殊的道德意义,那么确立人工智能系统道德地位的关键问题就是它们是否具有这种体验的能力(即它们是否有知觉,这个术语有时也被使用)。我们没有讨论过神经科学或哲学上的价值理论,也没有以其他方式研究过人工智能系统中具体的价值意识体验的前景。与视觉体验理论相比,有价值的意识体验理论还不够成熟,这也是未来工作的一个重要优先事项。不过,我们认为,许多可能的意识系统,同时也是主体系统,都会有价值体验,因为主体系统必须评估选项才能选择行动。
总之,我们应该认真对待意识归因不足的风险。如果不承认有意识的人工智能系统是有意识的,可能会导致我们给许多有意识的生命造成不必要的痛苦。
4.1.2 高估AI是否有意识
我们也有很大可能会过度赋予人工智能系统意识——事实上,这种情况似乎已经在发生——而且这种错误也存在相关风险。最直截了当的是,我们可能会错误地优先考虑人工智能系统感知到的利益,而我们的努力最好是用于改善人类和非人类动物的生活。正如 Schwitzgebel 和 Garza(2015,2020)所言,人工智能系统道德地位的不确定性是危险的,因为归因不足和归因过度都会付出高昂的代价。
过度归因很可能是因为人类有一种公认的倾向,即把非人类系统拟人化并过度归因于类似人类的心理状态。越来越多的研究探讨了人们将意识和主体性归因于人工系统的倾向,以及影响这种归因的因素(Dennett 1987, Gray & Wegner 2012, Kahn et al. 2006, Krach et al. 2008, Sytsma 2014)。人类产生 "主体偏见"——将主体性、意图和情感归因于非人类实体的自然倾向——的原因可能有很多,这源于我们的进化史(Guthrie,1993)。
一种可能性是,我们可能会将人工智能系统拟人化,因为这似乎有助于我们理解和预测它们的行为——尽管这种印象可能是错误的,拟人化实际上会导致我们做出不正确的解释。拟人化可以让我们用理解人类的认知框架来理解和预测像人工智能这样的复杂系统,从而有可能帮助我们在与人工智能的互动中游刃有余(Epley et al.) Dennett推测,个体采用一种认知策略,即 "意向立场",来预测和解释各种实体的行为,包括人类、动物和人工智能系统(Dennett,1987)。意向立场包括将信念、欲望和意图等心理状态归因于实体,以解读和预测其行为。对人工智能系统的观察和与人工智能系统的互动往往会让人自然而然地采用意向立场,尤其是当它们的行为看起来是有目的或有目标的时候。当人工智能系统表现出类似人类的特征,如自然语言处理、面部表情或自适应学习能力时,这种倾向会进一步放大(Mazor 等人,2021)。研究人员发现了几个容易使人将人工智能系统拟人化的因素,包括它们的外貌、行为和感知到的自主性(Kahn 等人,2006;Złotowski 等人,2015)。
将主体性和意识赋予人工智能也可能是出于社交互动的情感需要(Mazor 等,2021)。从人工系统中寻求社交互动和满足感的人可能更容易将意识赋予人工系统。将类似人类的特质赋予人工智能可以帮助人们应对困难的情绪或情况,例如,向一个看起来有同情心或善解人意的人工智能倾诉会让人感觉更舒服(Turkle,2011)。人工系统(如 Replika 聊天机器人)作为社交互动源的应用已经非常明显。
最近语言模型能力的飞速发展尤其有可能导致意识的过度归因,布莱克-勒莫因(Blake Lemoine)的案例就很好地说明了这一点(Lemoine,2022)。现代语言模型可以令人信服地模仿人类话语,让人很难不认为自己是在与一个有意识的主体互动,尤其是当模型被提示在对话中扮演一个人的角色时(Shanahan 等,2023)。
除了上文提到的资源分配不当的风险之外,过度赋予人工智能系统意识至少还会带来其他三种风险。首先,如果意识有时是以微弱的理由归因于人工智能系统,那么这些归因可能会破坏人工智能中证据更充分的意识主张。关于这个话题的辩论的观察者可能会认识到某些归因是薄弱的,并认为所有归因都是薄弱的。如果人们也有理由担心,对人工智能意识的归因分散了我们解决其他紧迫问题的精力,那么这种影响可能会特别大。其次,如果我们判断某类人工智能系统具有意识,这应该会导致我们以不同的方式对待它们——例如,以不同的方式训练它们。原则上,这可能会与确保人工智能系统以有益于社会的方式发展的工作相冲突。第三,过度归因可能会干扰有价值的人际关系,因为越来越多的人转向人工智能来寻求社交互动和情感支持。这样做的人也可能特别容易受到操纵和剥削。
无论人们如何看待这些风险的相对重要性,它们都是研究人工智能意识前景的有力依据。如果人工智能要继续发展,这项研究将是至关重要的:在没有充分理由的情况下,就断定没有人工智能系统会有意识,或者断定某一类人工智能系统有意识,都是有风险的。
4.2 意识和能力
在大众的想象中,意识与自由意志、智慧和感受人类情感的倾向相关,包括同情、爱、内疚、愤怒和嫉妒。因此,我们提出有意识的人工智能可能在短期内实现,这可能意味着我们很快就会拥有类似科幻小说中描绘的非常像人类的人工智能系统。事实上,这是否会发生取决于意识与其他认知特征和能力之间的关系。此外,如果意识与人工智能的重要能力相关联(或有望相关联),那么有意识的人工智能系统就更有可能被构建出来。因此,在本小节中,我们将简要探讨意识如何与人工智能系统的行为和能力差异相关联。
对于我们有可能构建有意识的人工智能这一观点,一个可能的论据是,有意识与动物的更大能力相关,因此我们将在追求更强人工智能能力的过程中构建有意识的人工智能系统。诚然,关于意识的科学理论通常声称,意识体验的产生与适应性特质有关,这些特质因其对人类和其他一些动物的认知能力所做的贡献而被选中。例如,Barrs (1988,1997)声称,全局工作空间 "优化了组织性与灵活性之间的权衡"(1988,第 348 页),先进的人工智能系统大概也必须管理这种权衡。
这一论点的弱点在于,人类和动物的思维并不一定能很好地指导人工智能系统中意识与能力之间的联系。这是因为动物思维的 "设计 "不仅取决于我们能力的适应价值,还取决于我们进化时所受到的限制,其中包括我们可以从中学习的数据数量和形式的限制;为我们的思维提供能量的限制;以及我们祖先思维的形式和相关突变的可用性。人工智能系统可能的设计空间不同于生物学中可能的思维设计空间(Summerfield 2022)。因此,我们很可能会找到方法来构建没有意识的高性能人工智能系统。
不过,一些有影响力的人工智能研究人员目前正在开展一些项目,旨在通过构建更有可能有意识的系统来提高人工智能的能力。我们已经讨论过本吉奥及其同事正在进行的工作,该工作采用了 GWT 的思想。Goyal和Bengio(2022 年)写道:
我们的目标是从有意识处理的认知科学研究中汲取灵感(并进一步发展),以提供大大增强的人工智能,并通过高级推理来实现人类的能力。
我们的目标是建立人工智能系统,至少实现人类意识的某些基本特征,特别是为了增强能力。同样,LeCun 提出的自主智能架构也具有一些特征,如用于规划的世界模型和 "配置器",后者被描述为 "接受所有其他模块的输入,并为手头的任务配置[其他模块]"(LeCun,2022,第 6 页)。LeCun 还认为,人脑中存在这样的元素可能是造成他所说的 "意识错觉 "的原因。这些都是人工智能领域长期以来广泛借鉴认知科学见解的例子(Hassabis 等人,2017;Zador 等人,2022)。因此,无论建立与意识相关的特征是否是实现更强能力的唯一可能途径,这都是我们可能采取的方法。
现在来谈谈有意识的人工系统可能会如何行为的问题,我们有概念上和经验上的理由怀疑有意识是否意味着具有类似人类的动机或情感。从概念上讲,有意识只是拥有主观经验。原则上,有意识的主体可能拥有与我们截然不同的经历。特别是,缺乏情感或情绪的动机中立的意识体验在概念上并不存在明显的不一致性——即使意识主体确实有情感或情绪状态,这些状态也可能是由不同的环境触发的,与触发我们情绪的环境不同,并促使他们以不同的方式行为。
从经验上看,我们讨论过的意识理论一般都不认为意识意味着类似人类的动机或情感。一个例外是我们在第 2.4.5 节中讨论过的一种观点,即意识只有在自我维护的情况下才有可能存在,因为这种观点认为有意识的生物不仅要进行自我维护,而且还要有这样做的动机。但这种观点是一种例外。有些理论,如 GWT 和 PRM,认为有意识的主体必须是行为主体,或许他们的欲望有可能进入意识经验。在 GWT 中,工作空间保持着为模块处理提供重要背景的表征,当前的欲望可能符合这一描述。但这些理论对于有意识主体的动机是中立的。AST 的情况更为复杂: Graziano(2013)认为,注意力模式的使用对社会认知非常重要,因为它允许人们在自己或他人身上建立注意力模型。他进一步声称,这是建立有意识人工智能的一个理由,因为具有注意力模式的人工智能系统将能够产生共鸣(Graziano,2017)。但这里的说法似乎是,实施 AST 是将有意识状态归因于他人的必要条件,因此也是出于移情动机帮助他人的必要条件,而不是说意识是移情动机的充分条件。
目前人们对人工智能影响的许多担忧并不取决于人工智能系统是否有意识。例如,人们担心根据反映当前社会结构的数据训练出来的人工智能系统可能会延续或加剧不公正现象,这并不取决于人工智能是否有意识。人们也不担心人工智能会促成各种形式的压迫,或者人工智能系统会取代人类工人从事大多数工作(尽管正如我们所指出的,取代人类工人的经济价值可能会促使人们进行能力研究,从而产生有意识的人工智能)。也许最令人惊讶的是,人工智能可能对人类的生存构成威胁的论点并不假定人工智能是有意识的。对这一结论的典型论证依赖于以下前提:(i) 我们将建立人工智能系统,这些系统具有很强的制定和执行计划以实现目标的能力;(ii) 如果我们给这些系统的目标选择不当,那么它们为实现目标而找到的方法可能是极其有害的(见Hilton 2022 等)。这些前提以及对它们的典型阐述和辩护方式都不依赖于人工智能系统是有意识的。
4.3 推荐
一些作者就人工智能意识的可能性提出了重要的实用建议。这些建议包括 布赖森(Bryson,2010)认为应避免有意识的人工智能;梅特-辛格(Met- zinger,2021)呼吁暂停可能导致有意识人工智能的工作;格拉齐亚诺(Graziano,2017)支持有意识人工智能的论点;施维茨盖贝尔和加尔萨(Schwitzgebel and Garza,2020)认为,我们只应在确信人工智能系统会有意识或确信它们不会有意识的情况下构建特定的人工智能系统;以及博斯特罗姆和舒尔曼(Bostrom and Shulman,2022)的详细建议。我们尚未对这些建议的论据进行评估,在此不再赘述。
不过,我们确实建议支持对意识科学及其在人工智能中的应用的研究(如AMCS关于此主题的公开信中的建议;AMCS 2023),以及在评估人工智能中的意识时使用重理论的方法。我们在了解哪些人工智能系统可能有意识方面取得进展的方法之一是开发和测试科学的意识理论;在现有范式内进行理论改进以及尝试测试竞争理论的预测(如正在进行的Cogitate对抗性研究(Melloni等人,2021))都很有价值。第二种方法是开展细致的实证研究,将意识理论扩展到非人类动物。这将有助于我们在更广泛的案例证据基础上,对意识的相关因素建立更普遍的认知(Andrews & Birch 2023)。第三种研究是专门针对人工智能完善意识理论。这类研究可能涉及到人工智能对意识理论所涉及的机制的理论化实现。
这类研究可能包括对意识理论中涉及的人工智能机制实施进行理论研究;构建此类系统并测试其能力;识别现有理论中的模糊之处;以及开发和维护更精确的理论公式,从而使其对人工智能的影响更加清晰。将此类工作与人类和动物意识方面的持续实证研究相结合,可望取得特别丰硕的成果。
另外两个研究方向可能也很重要。其一是专门针对价值意识和情感意识的研究;如果这种意识体验在道德上特别重要,那么我们就迫切需要能够应用于人工智能的、有充分依据的计算理论。另一项工作是努力开发更好的人工智能意识行为测试。虽然我们认为理论至上的方法是目前最有前途的,但也有可能开发出难以博弈、基于令人信服的理由(也许是基于理论)的行为测试。如果能开发出这样的测试,它们可能会比重理论的评估更具实际优势。
随着我们对意识有了更多的了解,并获得了更好的工具来评估人工智能系统中是否存在意识,我们也必须有效地使用这些工具。这意味着我们在开发新类型的人工智能系统时,既要应用重理论的方法,也要应用回顾性的方法,即在构建系统之前,对计划系统中出现意识的可能性进行前瞻性评估。在回顾性评估中,机械可解释性的方法可能非常重要,因为没有内置潜在意识支持功能的系统有可能在训练过程中获得这些功能。这也意味着,科学理论应成为与意识相关的人工智能政策和法规的核心。
术语表
略……
十、自主意识很强的人表现?
1、太高的个人评价:很少认识到自己的缺点和不足,脱离实际地高估了自己的能力和优点。
2、自尊太强:通常将人带到唯吾独尊、以自我为中心认知误区,令他们听不进去其他人指责,看不见自己的问题。
3、独立性过度:太过注重单独,随处与团体走不过去,一切喜爱独来独往。