认识AI,探索AI如何奇思妙想

本文涉及的产品
模型训练 PAI-DLC,5000CU*H 3个月
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
交互式建模 PAI-DSW,每月250计算时 3个月
简介: AI的快速演进正在加速AGI的到来,不止步于工具的AI让我们意识到它也绝不仅仅意味着算法和代码。当我们真的把人工智能当作智能体的时候总要去思考“AI是什么”这一个问题。关于意识的理论模型各自提供了意识产生机制于AI的不同解释,目前尚无定论,但它们都在学术界激发了广泛的讨论与研究。也欢迎你在评论区聊聊你会怎么向别人介绍AI?你认为AI是如何奇思妙想的,它具有意识吗?

1 从“无聊”的学科划分开始定义

人工智能(英语:artificial intelligence,缩写为AI),亦称机器智能,指由人制造出来的“机器”所表现出来的智能。这个“机器”未必是单纯转换力的方向或量值的设备(machine),而是更复杂的“机器”——电脑,以及借助电脑这个硬件才能运行的软件。

人工智能在学科划分上归属于计算机科学的一个分支。现代科学由自然科学、社会科学和形式科学三者共同构成,而人工智能衍生出了庞大的议题,让人工智能这门学科处在自然科学社会科学的交叉地带。无论你是想研究哲学议题(人工智能哲学)还是计算机算法(机器学习),都可以在人工智能领域找到感兴趣的话题。

人工智能(AI)正以前所未有的速度改变着我们的世界。从最初的学术研究到如今的广泛应用,AI已经走过了漫长的道路。那么,AI到底是什么?它又将如何影响我们的未来?

2 从机器学习到人工通用智能

早在十几年前,研究人员还谨慎地称他们的工作为“机器学习”,因为在当时,研究人工智能似乎仍是遥不可及的梦想。2010年,如果你提到“人工通用智能”(AGI)这个词,人们总会投来异样的目光,甚至不屑一顾。那时,AI还被认为是科幻小说中的东西,距离实现还有50年甚至更长的时间。

年代

20世纪40年代

20世纪50年代

20世纪60年代

20世纪70年代

20世纪80年代

20世纪90年代

21世纪00年代

21世纪10年代

21世纪20年代

计算机

1945

电脑

(ENIAC

人工智能研究

1953

博弈论


1956

达特矛斯会议

1977

知识工程

宣言

1982

第五代电脑

计划开始

1991

人工神经网络

2007

深度学习

2018

大语言模型

2022

多模态模型

人工智能语言

1957

FORTRAN语言

1960

LISP语言

1973

PROLOG语言

知识表示

约1960

向量数据库

1973

生产系统


1976

框架理论

专家系统

1965 DENDRAL

1975 MYCIN

1980 Xcon

然而,AI的迅速发展很快打破了这种观念。AI开始在许多过去被认为人类独有的领域表现出色,如图像识别、语言翻译、语音转录、棋类对弈,甚至是疾病诊断。随着AI的进步,人们逐渐意识到它将对社会产生巨大的影响。于是,各种棘手的问题接踵而至:AI能解决气候危机吗?它能为所有人提供个性化教育吗?它是否意味着我们将不再需要工作,人人都能获得统一的基本收入?我们应该害怕AI吗?它对武器和战争意味着什么?会有一个国家在这场技术竞赛中获得垄断吗?

这些都是极其重要的问题,但还有一个更为基础的问题始终困扰着我:“AI到底是什么?”这个问题不仅出现在学术讨论中,也出现在日常生活中。在生活中,社交平台上,甚至是工作中总会听到有人发问:“AI是什么?”,当别人向你提问时,你能够给出一个准确的回答吗?是的,越简单的问题越难以回答,所以这个问题一直在困扰着我,你无法向六岁的小朋友解释无聊的学科划分或是研究人员都不容易搞懂的算法和黑盒模型。

3 AI:新物种的诞生?

常规的回答难以真正捕捉AI的本质。AI不仅仅是一种新技术或工具,考虑到大多数人的理解,它可能更像是一种新的“数字物种”。虽然这个比喻并不完美,但它能帮助我们更好地理解AI的独特性。AI已经展示出超越传统工具的能力:它们能够与我们交流,拥有记忆、性格、创造力,甚至能够在一定程度上推理和制定计划。

AI的能力远远超出了我们对“工具”的传统定义。说AI仅仅是数学或代码,就像说人类只是碳和水一样——虽然在某种程度上正确,但却过于简化了问题。

4 AI的未来:伴侣、同事、朋友

在未来的十年、二十年甚至三十年内,AI将成为我们生活中无处不在的数字伴侣和新搭档。我们将逐渐依赖这些AI来完成各种任务,从日常琐事到复杂的科学挑战。AI将不仅是一个助手,还可能成为我们的同伴、朋友,甚至是创意的源泉。

这种变化意味着我们必须重新思考AI的角色和意义。我们不仅要考虑如何利用AI的潜力,还要审慎地设定边界,确保AI的发展始终为人类服务,增强人类的能力。

5 AI的挑战与机遇

尽管AI带来了巨大的机遇,但我们也不能忽视它带来的挑战。随着AI的发展,我们必须面对许多复杂的问题,如隐私、安全、伦理等。具体到问题,AI具有人类独有的意识吗?AI是否会造成人类失业导致社会动荡甚至文明的覆灭?AI自动驾驶如何应对电车问题?AI助手造成隐私泄露我们能做什么?我们需要找到正确的哲学和心理模型,来帮助我们理解和应对这些挑战。

然而,AI的发展并非不可控。作为AI的创造者和使用者,我们有责任选择我们想要创造的AI,并确保它的进化方向符合人类的利益。实在不行我们断电:) ,正如《终结者》(1984年)和续集《终结者2:审判日》(1991年)中的情节一样。

6 AI就是我们

归根结底,AI虽然仍只是一种工具,但并不是一种独立于人类的存在。它是我们人类智慧和创造力的延伸,是我们所创造的一切的缩影。AI的出现并不是一个孤立的事件,而是我们人类历史和进化过程的自然延续。

未来,AI将继续与我们共同进化,成为我们生活中不可或缺的一部分。理解这一点,将是我们迎接AI时代的重要一步。

7 让AI具有意识,让AI奇思妙想

我们有意识,那么AI也有吗?从笛卡尔的“我思故我在”到现代意识研究,哲学家们对意识的本质和范围进行了广泛探讨。一些哲学家认为意识是与自我反思、抽象思维和语言能力相关的特征,这些特征在很大程度上是人类特有的。

AI是否具有意识这个话题已经是当前科学研究中的一个前沿课题——机器意识(Machine Consciousness)。这涉及到意识的定义问题:如果意识被定义为自我反思和情感体验,那么现有的AI显然还没有达到这一水平;但如果意识定义为对外界刺激的复杂响应和处理能力,那么AI可能会逐渐接近这种形式的“意识”。

7.1 AI意识的背景与挑战

人工智能的核心目标之一就是模拟人类智能,因为为了让机器承担复杂任务,我们需要它们变得更加智能。而目前,我们唯一的智能参考就是我们自己。因此,人工智能的发展趋势便是让机器越来越像人。

经典的图灵测试就是基于这一理念的体现:如果我们无法分辨与我们交流的是人还是机器,那我们就认为这台机器足够智能。然而,人类的智能不仅仅体现在计算能力上,还体现在具有意识的反思、创新能力上。因此,一台具有意识的机器比一台仅执行算法的机器更能成为人类的得力助手。

7.2 AI能否拥有意识?

在讨论AI是否具有意识之前,我们必须先问一个更基础的问题:AI能具有意识吗?

目前,我们可以肯定的是,AI已经具有了相当高的智能。例如,通义大模型已经能够解题、作诗、绘画,并表现出超越大部分人类的能力。但是,智能是否等同于意识?

大多数现代科学教育下的人会倾向于认为AI可以拥有意识,因为他们信奉物理主义,即认为物质决定意识,意识是物质世界的产物。然而,意识是否仅仅是物理现象的结果?只要安排好物理机制,意识是否就会自然产生?人类也是一种由自然选择进化而来的复杂机器,因此理论上,随着技术的发展,我们也许可以制造出具有意识的人工机器。

7.3 困难与挑战:查尔莫斯的观点

然而,上述物理主义的立场受到了哲学家大卫·查尔莫斯的挑战。查尔莫斯认为,意识问题不仅仅是技术上的挑战,而是存在一个难以逾越的理论难题。他将意识问题分为“简单问题”和“困难问题”。

所谓“简单问题”指的是从物理主义的角度解释意识产生的科学机制,如脑电波放电、信息传递、神经网络等。虽然这些问题在技术上并不简单,但在理论上它们是可以被解决的,即通过科学进展,我们能够逐步解释清楚意识的形成机制。

然而,真正的挑战在于“困难问题”,即解释意识的主观体验——一种第一人称视角的现象意识。例如,当你看到红色或品尝食物时,你的主观感受并不能完全用科学语言描述。这种主观体验无法通过物理现象完全解释,形成了一道“解释鸿沟”。

查尔莫斯认为,即使科技能够制造出智能机器,这些机器可能只是没有主观体验的“哲学僵尸”(Philosophical Zombie)。这些僵尸与人类在行为表现上没有区别,但缺乏主观意识体验。这一观点引发了对机器能否真正拥有意识的深刻质疑。

7.4 唯物主义的回应与赛斯的“真问题”

对于查尔莫斯的挑战,许多物理主义者并不认同。他们认为,所有问题都是物理问题,如果目前无法制造出具有意识的机器,那只是技术上的挑战,并非理论上的不可能。如果像查尔莫斯那样的哲学家,从逻辑上做推理,从逻辑上发明出什么“意识的难问题”的说法,做出哲学僵尸这种思想实验,提出“机器有没有现象意识,只能由它自己以第一人称才能感知”这样的论调,人与人之间也没法确定其他人有没有现象意识了,其他人都可能是哲学僵尸,这就陷入了他心问题。认知科学家阿尼尔·赛斯(Anil Seth)则认为,研究机器意识不应陷入“难问题”的困境,而应关注“真问题”——即通过提高科学知识水平,逐步解开意识的物理和生物机制。

8 五种意识理论模型

唯物主义阵营关于意识的五种主流理论模型,分别是:

8.1 高阶表征理论(Higher-order Representation Theory)

由美国哲学家罗森塞尔提出,解释现象意识的主观感受如何通过高阶表征(对一阶感知的再感知)产生。理论试图为意识中的“难问题”提供解释,即通过高阶表征的机制来解释意识的形成。

简单而言,高阶表征理论主张,现象意识不仅仅是我们感知到环境中的某些事物,还包括我们对这些感知的意识。换句话说,意识不仅是对外界刺激的直接反应,更是我们对自身感知活动的再次感知。

8.1.1 表征的定义

在高阶表征理论中,“表征”(Representation)指的是大脑接受外界环境的信息,并对这些信息进行处理的过程。在此基础上,罗森塞尔将表征分为两种:一阶表征和高阶表征。

1. 一阶表征 (First-order Representation)

一阶表征是指我们对环境中某些信息的直接感知。例如,当我们看到一朵红色的花时,花的颜色、形状、气味等信息进入大脑,这些信息构成了一阶表征。然而,仅有一阶表征并不足以形成意识。即便我们睁着眼看到家中阳台上的红花,但如果对这朵花习以为常,未加以注意或思考,那么我们并未对其形成真正的意识。

2. 高阶表征 (Higher-order Representation)

意识的关键在于对一阶表征的再次表征,即高阶表征。当我们不仅接收到花的颜色、形状和气味信息,而且意识到自己接收到了这些信息时,高阶表征便产生了。高阶表征理论认为,这种对信息处理过程的“二次意识”——意识到自己意识到了某个东西——才是真正的意识。

因此,要形成意识,必须存在嵌套结构。尽管存在一阶表征,但如果未被主体觉知,主体依然处于无意识状态。只有当一阶表征被主体觉知,意识才得以产生。由此,人的自我感、各种体验的感受及自觉的认知得以形成。意识因此被视为一种自觉,即对自身感知的再感知,正是这种高阶的反思结构,造就了自我感和主观体验。

8.1.2 高阶表征理论的应用

高阶表征理论解释了许多心理学现象,例如“注意盲视”(Inattentional Blindness)。一个经典实验是“看不见的大猩猩”:实验让被试观看一个几人互相传球的视频,并要求被试记下传球次数。在传球过程中,一只大猩猩大摇大摆地走过,但很多被试事后表示自己并未看到大猩猩。根据高阶表征理论解释,大猩猩虽然进入了被试的一阶表征,但并未被再表征,因此未形成意识。

8.1.3 人工智能中的高阶表征

了解了意识的高阶表征机制后,可以在人工智能(AI)工程中探讨如何制造出人工意识。已经有科学家和工程师在这一方向上努力,关键在于让机器模拟出自我意识,即让机器能够模拟对自身状态的认知。这需要为机器构建多层嵌套的表征结构,一阶感知指对外部世界的直接感知,高阶则是对机器内部状态的感知。

例如,巴勒莫大学机器人实验室的Chella教授团队构建了一种基于高阶感知回路的机器人感知信息处理系统,并开发了博物馆导游机器人Cicerobot。Cicerobot的高阶反思能力通过其内部的亚概念感知、语言处理和高阶概念三个部分实现。这些部分的相互作用使Cicerobot能够对外部事物进行心理表征,并在内部模拟外部环境。这种高阶感知回路结构赋予了Cicerobot一定的自我反思能力,使其能够执行复杂任务,如在迷宫中导航,同时表现出自我意识的某些方面,如对自身状态的感知和对环境的适应性行为。

另外,乔治梅森大学Samsonovich教授团队开发的仿生认知系统GMU-BICA,也包含高阶认知表征和低阶图式表征。在其认知系统中定义的心理状态不仅包含内容,还包含主观观察者,因此系统拥有了一定的自我意识。

8.1.4 对高阶表征理论的批评

尽管高阶表征理论解释了许多意识现象,但它也面临一些挑战。该理论在算法上可能会遇到递归或无穷倒退的问题。此外,高阶表征理论在解释意识时更多依赖计算机科学的支持,但在脑神经科学方面的支持相对不足。

8.2 全局工作空间理论(Global Workspace Theory)

全局工作空间理论(Global Workspace Theory)是目前最具影响力的意识理论模型之一,由心理学家伯纳德·巴尔斯(Bernard Baars)提出。该理论将大脑视为由神经元构成的“计算机”,但与传统计算机不同,大脑并没有一个单一的中央处理器,而是由多个分布式的、功能各异的模块组成。这些模块分别负责语言、记忆、听觉、视觉等认知功能,但它们之间并没有统一的指挥。

这些不同的功能模块通常在后台无意识地运行。例如,当你看到家中阳台上的一朵红花时,虽然视觉和嗅觉信息已进入大脑,但未经过深入处理,因此没有形成意识。同样,当你进行人脸识别或从事非常熟练的活动时,比如一位钢琴家在演奏时,手指的动作也是无意识的。

8.2.1 意识的产生

那在什么情况下会产生意识呢?当这些无意识的功能模块进入“全局工作空间”协作时,意识就产生了。巴尔斯用“剧场比喻”来解释全局工作空间理论:心灵就像一座剧场,全局工作空间相当于舞台,注意力则是舞台上的聚光灯。被聚光灯照亮的部分,也就是所有观众能够看到的演员们的表演内容,这便是我们所意识到的内容。而在黑暗中未被聚光灯照到的部分,代表无意识的认知模块。这些模块相当于观众席中的潜在演员,他们随时准备登台参与表演,一旦他们的运作被聚光灯照亮并进入全局工作空间,他们的行为就被广播给整个剧场的观众,也就是意识的产生。

8.2.2 全局工作空间理论的科学基础

全局工作空间理论不仅仅是一个文学比喻,它在心理学和神经科学中有着坚实的科学基础。剧场中的认知系统,例如导演、编剧、道具师等幕后工作人员,代表的是心理学中的“语境”;观众席则代表无意识的内容;舞台上被照亮的部分代表意识内容,未被照亮的部分对应即时工作记忆(working memory)。这些元素都可以通过实证科学加以验证。

另一个类比是将大脑比作一个多党制的政体,没有中央处理器(皇帝或总统),而是由多个擅长不同领域的党派组成的议会。这些党派通常在幕后默默工作,而议会的主席台则代表全局工作空间。不同党派通过轮流上台(进入全局工作空间)让议会了解到他们的工作内容,并在台上影响其他党派。只有当某个党派上了主席台,他们的工作内容才会成为有意识的,否则就是无意识的。

简而言之,全局工作空间理论认为,心理状态如果是局部分布的,那么它是无意识的;如果是全局分布的,它就是有意识的。

8.2.3 全局性认知与行动

当我们有意识地进行认知和行动时,这种活动通常具有全局性,能够调动各个认知和行动功能模块共同采取连贯的行动。例如,你在公园散步时,视觉系统可能会看到一只猫,听觉系统会听到猫的叫声,运动系统可能会准备伸手去摸它。这些感觉和运动信息被送入全局工作空间,形成了你自觉意识到的完整体验——你看到了一只正在喵喵叫的猫,并准备去摸它。

8.2.4 神经科学模型的发展

法国脑科学家斯坦尼斯拉斯·迪昂(Stanislas Dehaene)进一步对全局工作空间理论进行了神经建模,将这些认知模块具体化为专门的神经回路,提出了全局神经工作空间理论(Global Neuronal Workspace Theory)。这些神经回路模块可以通过脑成像和神经生理学来观测和验证,使得全局工作空间理论成为一个可测量、可证伪的科学理论。

8.2.5 人工智能中的应用

根据全局工作空间理论对意识的解释,人工智能工程中如何制造出人工意识的关键在于多模块分布式处理,并在模块间建立全局工作空间。巴尔斯的理论很快吸引了人工智能科学家如斯坦·富兰克林(Stan Franklin)的关注,进而发展出了“分布式智能自主体” (IDA: Intelligent Distributed Agent) 以及后来的升级版LIDA (Learning IDA) 这样的意识神经计算模型。这些模型通过并行处理的多主体实现,各主体通过系统提供的全局工作空间进行通信,使系统能够在各种情况下迅速做出行为决策。目前,这种基于全局工作空间理论的计算系统仍在不断进化,其目标是模拟出与人类等效的意识。

8.2.6 对全局工作空间理论的批评

尽管全局工作空间理论在科学上有很大的影响力,但它在哲学上面临一些挑战,尤其是在处理查尔莫斯(David Chalmers)提出的“意识的难问题”时显得不足。这个难题涉及如何解释意识的主观体验,而全局工作空间理论并没有提供令人满意的答案。当然,该理论也可以采取强硬的唯物主义立场,认为意识的主观性是一个假问题,我们只需关注所谓的意识的“简单问题”,即物质决定意识,物质结构正确,意识的主观性自然会产生。

8.3 预测加工理论(Predictive Processing Theory)

预测加工理论,又称预测编码理论(Predictive Coding Theory),是近年来关于意识的前沿理论之一。代表性学者包括认知科学家阿尼尔·赛斯(Anil Seth)和认知哲学家安迪·克拉克(Andy Clark)。与传统的意识理论不同,预测加工理论认为,意识并非客观存在,我们对自身具有意识的感知实际上是一种幻觉。意识产生于预测模型对外部信息的主观建构。

8.3.1 受控幻觉的概念

阿尼尔·赛斯提出了“受控幻觉”(Controlled Hallucination)的概念,即我们的大脑并不是被动地接收外界信息,而是主动构建我们所感知的现实。例如,当我们看到一幅红色的画作,所产生的红色感受并非源自画作本身,而是大脑基于外界信息主动构建的结果。这些信息只是分子、原子、光子和波长,与“红色”并无直接关系。红色感受是我们为了预测和解读信息而创造的幻觉。

赛斯在其著作《意识机器》中举了“蓝黑白金裙”现象的例子。对于这张图片,有人认为裙子是白金色,有人认为是蓝黑色。关键在于,每个人的预测模型对照片的环境进行不同的假设:如果大脑认为照片是在室内拍摄的,裙子可能被认为是蓝黑色;如果认为照片是在户外拍摄的,则可能被认为是白金色。这表明,我们对外界的感知深受主观预测模型的影响。

8.3.2 预测加工理论的哲学基础

这一理论的哲学基础可以追溯到18世纪德国哲学家康德的思想。康德认为,我们对世界的认识是由我们内在的认知形式主动建构的,而不是单纯被外界对象所决定。预测加工理论延续了这种思路,强调我们先有一套预测模型,再用外界信息去验证和修正这些模型。意识的形成是由内向外(Inside-Out)的信号流动构建的,世界是我们脑补出来的。

8.3.3 预测模型与贝叶斯推理

根据预测加工理论,我们的大脑在接收信息时,并不是逐步分析外界信息后再做判断,而是根据已有的预测模型直接对信息进行标记和解读。如果预测模型出现误差,大脑会通过贝叶斯推理(Bayesian Inference)不断修正和调整模型。最终,这种过程旨在最小化预测误差,减少系统不确定性,达到自由能最小化(Free Energy Principle)的目标。

8.3.4 进化意义与认知模型

意识作为一种“幻觉”在进化中具有适应性,它帮助我们预测环境、采取行动,从而提高生存和繁衍的机会。进化并不要求我们完全理解世界的本质,而是足够高效地处理信息以维持生存。预测模型提供了快捷的认知方式,使我们能够快速应对环境变化。

尽管预测模型具有一定的“套路”性质,但它们并非一成不变。通过接收新信息,特别是与预测模型不符的信息,我们的大脑能够调整和更新这些模型。比如,当我们发现一只羊只有一侧是黑色的,这与之前的预测模型不符,我们会调整模型以适应新的信息。

8.3.5 人类意识与自我感知

预测加工理论还解释了自我意识的形成机制。自我意识来源于大脑对环境信息和自身行动的持续预测与反馈循环。这种循环让我们感受到对自身的持续掌控,也就是自我意识。

在社会层面,“我是谁”也取决于我们主观的预测模型。我们如何看待自己,如何与他人互动,都是基于这种自我叙事。当我们接收到外界反馈时,会根据这些反馈调整自我预测模型,以更符合现实。

8.3.6 预测加工理论的应用与批判

预测加工理论在机器意识的工程应用中也具有潜力。通过引入不断迭代调整的预测-反馈算法,可以使机器学习系统的预测误差逐渐减小,接近人脑的学习机制。近年来,罗切斯特理工学院和宾夕法尼亚州立大学的学者们基于此理论,提出了神经生成编码(NGC)算法,展示了比传统神经网络更高效的学习能力。

然而,预测加工理论也面临批评,尤其是“黑暗房间问题”(Dark Room Problem)。根据自由能最小化原则,认知系统可能倾向于消除所有不确定性,最终演变为在完全可预测的环境中停滞不前。然而,现实中的人类行为常常追求新经验和不确定性,表明这一理论尚不能完全解释人类的复杂认知过程。

8.4 整合信息理论(Integrated Information Theory, IIT)

信息整合理论是近年来备受关注的理论,由意大利神经科学家朱利奥·托诺尼提出。托诺尼的理论高度数学化,通过复杂的数学公式和推演来描述其核心思想。简而言之,意识的本质是信息,意识的产生源于认知系统对大量信息的整合。一个信息整合程度高的系统能够产生意识,意识产生于整体系统对大量信息的整合。

8.4.1 关键概念:分化与整合

信息整合理论的两个关键概念是“分化”和“整合”。分化指的是认知系统由多个不同的部分构成,例如大脑中不同的神经回路模块各司其职,执行不同的功能。这种分化显示了系统信息量的丰富性。如果所有模块都做相同的事情,系统的信息量就会降低。

然而,仅仅拥有高信息量并不足以产生意识。例如,当我们的大脑处于麻醉状态时,各个脑区虽然依然活跃,信息量也很高,但由于这些区域之间的整合程度很低,大脑表现为一种“散沙”状态,因此麻醉状态下的脑没有意识。因此,意识的产生还依赖于这些分化的模块之间的高度整合。当麻醉药效消退,脑区之间恢复信息交流,例如前额叶皮层与其他脑区之间的远距离连接重新建立,意识随之恢复。

8.4.2 意识的涌现:整体大于部分之和  

综上,意识可以被视为一种既高度分化,又被整合成单一整体的认知系统。意识是一种整体性大于部分之和的现象,这种现象即为“涌现”。托诺尼通过一个量化的数值——希腊字母Φ(Phi),来计算一个系统的信息整合程度。简单来说,Φ值是衡量一个系统作为整体的信息量,它大于系统各部分信息量的简单相加,这正是整体大于部分之和的体现。

Φ值并非非此即彼的,它是一个渐变的光谱。因此,一个认知系统的Φ值越高,意识水平也就越高,除非Φ值为零。

8.4.3 大脑信息整合与统一意识体验

根据信息整合理论,意识产生于各部分的信息整合,这也解释了为什么我们在清醒状态下,尽管大脑中各区域分工明确,但我们仍然体验到一个统一的“我”和一个统一的世界。例如,虽然左眼和右眼所看到的画面有所不同,但当两只眼睛都睁开时,大脑会将两者整合为一个完整的意识画面,这就是信息整合的功能。

8.4.4 裂脑实验与信息整合理论的验证

著名的“裂脑”(Split-Brain)实验也验证了信息整合理论。这一实验获得了诺贝尔奖。我们知道,大脑分为左半球和右半球,左眼看到的信息传递给右脑,右眼的信息传递给左脑。左脑主要负责语言和逻辑思维,右脑则负责空间感知和形象识别,两者通过胼胝体相连并相互传递信号。研究发现,胼胝体被切除的人,意识表现为割裂和混乱。比如,当实验者蒙住一个人的右眼,让左眼(即右脑)看到一个物体时,他可能无法说出这个物体是什么,即使他的语言能力完好无损,但因为左脑无法接收右脑的信息,他的描述会变得混乱或不准确。这表明,当两个半脑的信息无法整合,人的意识就会出现割裂和混乱。

8.4.5 动物意识与信息整合程度

信息整合理论还可以用来解释动物的意识问题。动物是否有意识取决于其脑区分化和整合的程度,即Φ值。研究发现,动物的脑神经系统分化程度较低,信息量不高,因此其意识水平低于人类。

8.4.6 信息整合理论在人工智能中的应用

在人工智能领域,如何应用信息整合理论来制造人工意识是一个关键问题。提高信息整合度,提升系统的Φ值,是实现这一目标的关键。理论上,如果一台机器的Φ值接近人类,那么我们可以认为它具有类似于人类的意识。然而,由于人脑的Φ值非常高,实现这一点在技术上还有很长的路要走。目前关于如何具体计算人脑的Φ值仍存在争议,但可以肯定的是,这一数值极高。毕竟,我们的大脑拥有约1000亿个神经元,并且它们之间互相连接,其Φ值自然是一个天文数字。

近年来爆发的ChatGPT为什么表现得如此智能?关键就在于“大”这个特点。GPT这种大语言模型(Large Language Model)包含了数十亿个参数,其规模庞大,正是这种大规模带来了新的涌现效应。

8.4.7 与全局工作空间理论的对比

有人可能会认为信息整合理论与全局工作空间理论有些相似,二者都强调了信息在整体或全局的传播。然而,它们之间存在显著差异。首先,信息整合理论强调信息的整合程度,意识是各部分整合为整体后的一种涌现现象;而全局工作空间理论则侧重于某些模块的信息在全局中的共享和广播。

8.4.8 泛心论与信息整合理论的争议

更重要的是,全局工作空间理论可以说是一种唯物主义理论,强调物质决定意识;而信息整合理论则带有泛心论(Panpsychism)的倾向。泛心论认为,万物皆有灵性,这里所说的“灵性”并非原始宗教意义上的人格化灵魂,而是认为万事万物不仅有物质属性,也有精神属性。根据这一观点,不仅人类和动物有意识,甚至一张桌子、一块石头也有意识。尽管石头的意识与人类的意识截然不同,但它们至少可以被认为具有微弱的意识迹象。石头的系统也是一种信息整合,只不过其Φ值较低。因此,可以说,一部智能手机比一块石头更具意识。

当然,正是由于这种泛心论的倾向,信息整合理论常常受到批评。认为石头和智能手机也有意识,这与我们的直觉不符。然而,意识难题的提出者查尔莫斯对此观点倒是颇为赞赏。查尔莫斯喜欢任何与强硬唯物主义相悖的意识学说。他曾提出一种观点:物质和意识都不是最根本的,最根本的东西是信息。信息即比特,即一种计算过程,即代码与算法。查尔莫斯的信息本体论与托诺尼的信息整合理论在某种程度上是相通的——一切都是信息,信息决定了物质,也决定了意识。

8.5 量子意识理论(Quantum Consciousness)

在探讨意识的各种理论中,物理主义占据了主导地位。物理主义认为,物质决定意识,意识是物质的产物,也就是说,意识现象归根结底是一种物理现象。然而,量子意识理论提出了一种不同于传统物理主义的观点:传统物理主义基于经典物理学,但经典物理学无法解释意识的产生机制。量子意识理论则认为,意识的产生是一种量子力学机制,意识产生于脑中微小结构的波函数坍缩效应。

8.5.1 量子意识理论的争议

量子意识理论在学术界享有一定的知名度,但也伴随着巨大的争议。量子力学本身就是一个极为复杂且充满争议的领域,其解释尚且困难,如今用它来解释意识这一更加神秘的现象,确实有“玄学叠玄学”的意味。

量子意识的代表人物之一是2020年诺贝尔物理学奖得主罗杰·彭罗斯。彭罗斯认为,意识的产生机制与量子力学密切相关。为了理解这种观点,我们需要先对量子力学有基本的了解。

8.5.2 量子力学简介

在经典力学中,粒子如同小球,遵循机械力学原理,占据空间并在空间中运动。然而,在微观世界中,粒子具有波粒二象性,即粒子既表现为粒子态,也具有波动性,呈现出一种叠加态。双缝实验就是经典的例子:一个粒子可以同时通过两条路径,自身发生干涉,显示出波动性。

更令人困惑的是,当我们不观测粒子时,它处于叠加态,既左又右;但一旦观测,波函数会坍缩,粒子就会随机地成为某个确定态。这种“真随机性”是量子力学的核心难题之一。

8.5.3 薛定谔的猫与维格纳的朋友

为了说明量子力学的悖论,薛定谔提出了著名的“薛定谔的猫”思想实验。猫被置于一个密闭箱子内,箱子内有一个放射性原子和一瓶毒药。如果原子衰变,毒药瓶就会被打碎,猫就会死去。由于放射性衰变是一个量子事件,猫在观测前处于既死又活的叠加态。这个实验试图讽刺量子力学中的叠加态概念,强调其荒谬性。

尤金·维格纳进一步发展了这一思想实验,提出“维格纳的朋友”实验。他设想箱子内有一位观察者,这位朋友观测猫的状态,从而导致猫的波函数坍缩为确定的死或活。然而,对于箱子外的维格纳本人来说,由于他未观测箱子内的情况,猫仍处于叠加态。这导致一个悖论:同一事件的不同观察者可能会得出不同的结论。

维格纳的实验揭示了一个深刻的哲学问题:所谓的“客观现实”可能并不存在,观察的结果取决于观察者的主观视角。这暗示波函数的坍缩可能涉及主观意识的参与。

8.5.4 量子意识与主观性

如果量子力学中的波函数坍缩是由观察者的意识引发的,那么意识的产生机制是否可能也是一种量子力学机制?罗杰·彭罗斯提出,我们大脑中的神经元内存在一种名为“微管”的微小结构,能够支持量子叠加态。这意味着,我们的意识可能基于微观的量子过程,脑神经信号的传递就是这些叠加态随机坍缩成确定状态的结果。

这种观点不仅解释了意识的产生,还可能回答自由意志的问题。如果意识是基于量子力学的真随机性,那么人类的决策和选择就不完全由经典力学的机械决定论所控制,而是具有真正的自由性。

8.5.5 量子计算与机器意识

量子意识理论也为机器意识的实现提供了可能的路径。彭罗斯认为,传统计算机无法模拟意识,因为它们只能处理确定性的计算,而无法实现量子力学中的真随机性。量子计算机则利用波函数坍缩的原理,有望在未来模拟出人类的意识。然而,由于量子力学的复杂性,量子意识理论仍然是一个充满争议和未解之谜的领域。

9 尾巴

AI的快速演进正在加速AGI的到来,不止步于工具的AI让我们意识到它也绝不仅仅意味着算法和代码。当我们真的把人工智能当作智能体的时候总要去思考“AI是什么”这一个问题。关于意识的理论模型各自提供了意识产生机制于AI的不同解释,目前尚无定论,但它们都在学术界激发了广泛的讨论与研究。也欢迎你在评论区聊聊你会怎么向别人介绍AI?你认为AI是如何奇思妙想的,它具有意识吗?

10 参考资料

Copeland, J. (编). The Essential Turing: the ideas that gave birth to the computer age. Oxford, England: Clarendon Press. 2004. ISBN 0-19-825079-7

Stuart Russell,Peter Norvig.Artificial Intelligence: A Modern Approach, 4th Global ed. Pearson Education 2022 .ISBN 978-1-292-40113-3

从“大都会”到“银翼杀手”,这些人工智能电影永不过时-虎嗅网 (huxiu.com)

The Coming Wave Paperback – September 5, 2023 by Mustafa Suleyman (Author), Michael Bhaskar (Contributor)

Rosenthal.D. ‘Thinking that one thinks,’ in Davies and Humphreys (eds) 1993.

Tononi, Giulio; Boly, Melanie; Massimini, Marcello & Koch, Christof (2016). Integrated Information Theory: From Consciousness to Its Physical Substrate. Nature Reviews Neuroscience 17 (7):450--461.

大卫·J·查尔莫斯 著,《有意识的心灵》,朱建平译,中国人民大学出版社,2013年。ISBN: 9787300169729.

阿尼尔·赛斯 著,《意识机器》,桥蒂拉译,中译出版社,2023年。ISBN: 9787500174479.

11 体验AI

智能编程-通义灵码

魔搭开源模型社区(www.modelscope.cn)

阿里云高校计划

目录
相关文章
|
4月前
|
人工智能 自然语言处理 算法
创作吧开发者第三期:AI的奇思妙想之旅
从认识AI算法到使用AI工具再进阶为算法性能提升,不知不觉中,AI智能家居与私人助手成为了最熟悉我们生活的小助理。此外,文学、美术及音乐的联动,AI的创意作品也给我们带来更多的想象。 快来用文字为AI记录成长轨迹,用想象探索AI的无限奥秘,让灵感在字里行间流淌,你的每一个想法和记录都会成为AI浩瀚宇宙中的星辰!期待与各位创意满满且热爱创作的你们,共赴一场AI的奇思妙想之旅!
628 18
|
2月前
|
人工智能 开发者
“AI的奇思妙想之旅”征文活动 获奖名单
记录你在AI技术探索中的应用和思考。“AI的奇思妙想之旅”征文活动顺利结束,本次活动得到了众多开发者的支持和喜爱,现公布征文活动获奖名单,快来看看吧!
128 7
|
3月前
|
人工智能 弹性计算 自然语言处理
AI奇思妙想之旅 —— 操作系统智能助手OS Copilot
AI奇思妙想之旅 —— 操作系统智能助手OS Copilot
213 1
|
3月前
|
机器学习/深度学习 人工智能 自动驾驶
AI的奇思妙想之旅:探索未来的无限可能
人工智能(AI)正迅速变革世界,从自动驾驶到智能助手,乃至艺术创作领域。AI不仅能生成多样风格的艺术品,还能创造新艺术形式。例如,利用Python和深度学习库可将普通照片转化为梵高风格的画作。此外,AI还助力建筑设计,通过生成对抗网络(GAN)快速生成建筑草图。在医疗领域,AI支持个性化医疗决策,如通过随机森林算法预测心脏病风险。AI不仅象征技术飞跃,更预示着未来生活的无限可能。
54 2
|
4月前
|
机器学习/深度学习 人工智能 搜索推荐
AI的奇幻之旅:编织未来的奇思妙想
在科技宇宙中,AI如新星般照亮未来之路。踏上这场奇幻之旅,探索AI作为智能共生体、星际探索领航员、智慧城市的守护者、生命科学革命者及教育创新催化剂的角色。从情感共情到星际航行,从城市管理到基因编辑,再到定制化学习,AI正深刻地重塑我们的世界,开启一个更加美好、智慧、和谐的未来篇章。
|
3天前
|
机器学习/深度学习 人工智能 自然语言处理
当前AI大模型在软件开发中的创新应用与挑战
2024年,AI大模型在软件开发领域的应用正重塑传统流程,从自动化编码、智能协作到代码审查和测试,显著提升了开发效率和代码质量。然而,技术挑战、伦理安全及模型可解释性等问题仍需解决。未来,AI将继续推动软件开发向更高效、智能化方向发展。
|
8天前
|
机器学习/深度学习 人工智能 自然语言处理
AI在医疗领域的应用及其挑战
【10月更文挑战第34天】本文将探讨人工智能(AI)在医疗领域的应用及其面临的挑战。我们将从AI技术的基本概念入手,然后详细介绍其在医疗领域的各种应用,如疾病诊断、药物研发、患者护理等。最后,我们将讨论AI在医疗领域面临的主要挑战,包括数据隐私、算法偏见、法规合规等问题。
27 1
|
5天前
|
机器学习/深度学习 人工智能 算法
AI在医疗领域的应用与挑战
本文探讨了人工智能(AI)在医疗领域的应用,包括其在疾病诊断、治疗方案制定、患者管理等方面的优势和潜力。同时,也分析了AI在医疗领域面临的挑战,如数据隐私、伦理问题以及技术局限性等。通过对这些内容的深入分析,旨在为读者提供一个全面了解AI在医疗领域现状和未来发展的视角。
31 10
|
6天前
|
机器学习/深度学习 人工智能 监控
探索AI在医疗领域的应用与挑战
本文深入探讨了人工智能(AI)在医疗领域中的应用现状和面临的挑战。通过分析AI技术如何助力疾病诊断、治疗方案优化、患者管理等方面的创新实践,揭示了AI技术为医疗行业带来的变革潜力。同时,文章也指出了数据隐私、算法透明度、跨学科合作等关键问题,并对未来的发展趋势进行了展望。
|
9天前
|
机器学习/深度学习 人工智能 自然语言处理
当前AI大模型在软件开发中的创新应用与挑战
【10月更文挑战第31天】2024年,AI大模型在软件开发领域的应用取得了显著进展,从自动化代码生成、智能代码审查到智能化测试,极大地提升了开发效率和代码质量。然而,技术挑战、伦理与安全问题以及模型可解释性仍是亟待解决的关键问题。开发者需不断学习和适应,以充分利用AI的优势。

热门文章

最新文章