复制成功

分享至

主页 > 数字货币 >

Cell子刊批判性发文,AI 在短期内不可能产生意识

2023.11.17

原文来源:追问NextQuestion

Cell子刊批判性发文,AI 在短期内不可能产生意识

图片来源:由无界 AI生成

和大语言模型(LLM)交互,我们总会隐约觉得它们可能真的有意识。然而,从神经科学家们的视角来看,这种观点似乎很难站得住脚。

最近,一篇发表于Cell子刊Trends in Neurosciences的论文中,三位分别来自计算机科学、生物学和神经科学的学者深层剖析了“人工智能能否产生意识?”这个问题。

从结论上看,他们一致认为:LLM在目前的形式下不可能具有意识。这么斩钉截铁的观点是怎么来的呢?来看他们的具体阐述。

Cell子刊批判性发文,AI 在短期内不可能产生意识

▷图源:Cell


LLM 与意识


长期以来,人们一直在追问,哪些动物具有意识,以及除了动物之外还有哪些实体拥有意识。最近LLM的出现为这个问题带来了全新的视角。它向我们展现了自己精湛的交谈能力(这是人类具有意识的一种表现),也使我们对“理解力”、“智能”和“意识”三个概念开始重新定义和思考。

LLM是拥有数十亿连接权重的复杂多层人工神经网络,这些权重通过数百亿字的文本数据进行训练,这其中也包括人类之间的自然语言对话。通过文字提问,用户会被引入一个令人着迷的模拟语境中。如果你肯花时间使用这些系统,就很难不被其网络内部所展现出来的深度和质量所震撼。问它一个问题,它的回答往往与一个具有意识的个体能产生的回答微妙的相似。因此,作为一个有洞察力、有意识的个人,我们就很容易得出结论:我所接收到的回答是由一个同样具有“意识”的个体产生的,这个有“意识”的个体既能够思考、感受、推理,还颇具经验。

基于这类“图灵测试”结果,我们不禁要问,LLM是否已经具有意识,抑或是即将拥有意识?然而,这个问题反过来又将引出一系列的道德困境,例如继续开发在“意识”觉醒边缘反复徘徊的LLM是否合乎伦理?在当今神经科学界,人们并不普遍接受LLM具有“意识”这一观点,但随着人工智能系统能力的不断提升,关于该观点的讨论不可避免地又重新被摆上台面。此外,各大新闻媒体也在广泛讨论这一问题,促使着神经科学家们从自己专业的角度对这一问题进行客观的正反解读。 

关于LLM具有潜在意识的观点往往会得到一类重要依据的支持,那就是LLM的架构在很大程度上受到了大脑特征的启发(图1),而大脑是我们目前唯一能自信地将其归因于“有意识”的对象。尽管早期的人工神经网络是以大脑皮层的简化版为基础来设计的,而现代的LLM经过高度工程化,并根据特定目的进行了调整,不再保留与已知大脑结构的深层同源性。事实上,许多让LLM在计算上强大的通路特征(图1)与我们目前认为在哺乳动物的意识产生和塑造中具有因果力的系统有着截然不同的架构。例如,与意识产生相关的许多神经科学理论认为,丘脑-皮质系统与觉醒系统在意识处理中发挥了核心作用,然而,现代LLM并不具备这两大系统。

Cell子刊批判性发文,AI 在短期内不可能产生意识

图1:哺乳动物大脑和大型语言模型之间的宏观拓扑差异 图源:Trends in Neurosciences

这时有人可能会问,为什么LLM的架构要模仿大脑的特征,这一点有那么重要吗?

在我们看来,主要原因是:我们目前只能确定一种意识的存在,它来自嵌入复杂身体的大脑。有人可能认为,从严格意义上说,这个论点可能要进一步缩减到仅涉及人类,尽管许多被认为对主观意识发挥重要作用的系统级特征在整个生物谱系上普遍存在,一直延伸到哺乳动物,甚至是无脊椎动物。

话说回来,让我们首先从“意识”的确切含义开始。然后,我们将提出三个反对当前人工智能系统具有或未来将很快具有意识的观点的论点:

1. 意识与对生物体有意义的感觉流相关联; 2. 在哺乳动物大脑中,意识得到高度相互连接的丘脑-皮质系统的支持; 3. 意识可能与生物体系的复杂生物组织密不可分。


意识是什么?


意识是一个复杂的概念,其定义一直存在争议。在人类彼此能交流互动的背景下,交流对话能力是评估一个人是否具有意识的本能要素。

免责声明:数字资产交易涉及重大风险,本资料不应作为投资决策依据,亦不应被解释为从事投资交易的建议。请确保充分了解所涉及的风险并谨慎投资。OKEx学院仅提供信息参考,不构成任何投资建议,用户一切投资行为与本站无关。

加⼊OKEx全球社群

和全球数字资产投资者交流讨论

扫码加入OKEx社群

相关推荐

industry-frontier