想法与评论
在科学中,还原论(Reductionism)意味着发掘复杂现象背后的机制,一种可行的方法就是将系统简化为更简单的组件。这种方法论成为了很多成熟研究领域的基础,如经典力学和化学等。在认知科学的背景下,我们可以通过研究神经元的生物学机制最终揭开认知的迷雾。在工程方面,最先进的深度学习也受到了神经科学新发现的启发。
然而在该篇评论文中,Noë 表达了他对目前神经科学研究中使用还原论的一些想法。在我的理解中,还原论远远不能建立真正的人工意识机器。
对于意识的起源,Noë 持生成性(enactive)观点,他同样对视觉意识也有独特见解,这也正是几十年来他所积极研究的课题。根据他出版的书籍 [1],视觉意识源自于和周围环境的相互作用,而不是简单地作为单向视觉流(uni-direction visual stream)存在于我们大脑中。因为这种假设并不能解决主观意识是如何来源于客观的电化学信号这一问题,所以我们必须考虑到,人类大脑和身体的不同部分是作为一个整体允许人类获得视觉经验。同样,当前最先进的深度学习还不足以揭开视觉意识的迷雾,更不要说开发人工意识了。
大脑理论的模块化已经被广泛接受并流行起来了,该理论表明大脑的不同部分负责不同的任务。例如,视觉系统用于视觉感知,运动区域负责人体活动等。这种观点经常在日常生活中无意地得到提升,如人们经常会说「大脑中的一个区域负责观看」。在这个句子中,有一个前提假设,即这一块区域除了观看并不会处理其他的任务。然而,正如 Noë 提到 Hubel 和 Wiesel 的例子,他们的后续工作之一,即研究者们发现了「两个视觉流」中的背侧流(the dorsal stream)实际上提供了与视觉输入相协调的动作转换。另一方面,视觉系统(以及其他感知)并不能独立存在,它们还是要依赖于身体的运动与指导 [2]。
然而,当我们回顾目前的人工智能应用,如自动驾驶汽车、Facebook 的推荐系统或图像识别等,它们都是遵循输入与输出之间的简单映射,其中人工智能算法学习并尝试寻找输入与最优输出之间的最优映射函数。现有的深度卷积神经网络其分类和感知都是由相同网络所训练出来的。通过足量的训练,神经网络能将(类似的)符号表示(目标分类标签)与图像的原始像素相链接。如果使用 CNN 构建人造智能体,这些符号表征永远不会给智能体本身任何意义。「番茄」或「棒球」是什么意思?虽然它们有相似的形状,但这对人工智能体又有什么意义呢?因此,CNN 也只是单一的模块化网络,它仅仅处理视觉信息。如果我们想要建立对这两个物体的视觉意识,Noe 的观点即只有当人工智能体理解视觉对象所处的真实环境是什么时,视觉表征才会有意义。
最近出现了 AlphaGo,它击败了围棋世界冠军,尽管没有一个物理的身体。强化学习本身是一个很有前途的方法,它可以通过物理互动探索外部世界。不幸的是 AlphaGo 所使用的深度学习只被用于探索围棋的最佳走法。因此,从 Noë(和作者的观点来看),AlphaGo 只是一台桌面计算器。强化学习算法是一个好工具,允许我们通过发展出知觉意识的行为探索这个世界。AlphaGo 本身只是一个很好的高级强化算法的试验台,但是没有一个附带知觉和行动的身体去探索世界,AlphaGo 永远不会理解围棋的每一步走动意味着什么。
基于 Noë 的感觉运动权变理论(sensorimotor contingency theory),我们应该把大脑作为整体来理解,而不是分解为部分来理解。例如,知觉和行动有着如同法律一般的规则,并不可被分离。知觉的世界随着我们动作的影响而改变,而我们的行动帮助我们真实地看到我们感知的物体是什么。简言之,我们为了更好的感知而行动,这提升了我们对世界的理解,并增加了行动能力。通过建构这些感觉运动技巧,我们获得了理解对象和外在世界规律的智能。尽管如此,当我们看目前最先进的人工智能时,发现它依然有欠缺。
因此,在理想情况下,也许我们可以构建一个机器人,它将尝试抓住飞来的棒球,并测试西红柿的柔软度以真正理解(或有一个视觉意识)棒球和西红柿之间到底具体有什么不同。
Alva Noë 的最初文章
如果你停下来考虑一下这个想法,即通过详细描述每个部分来了解一个复杂系统;乍看起来,系统的每一个部分令人着迷。
你不太可能仅通过观察一只鸟而对鸟群的组织原理产生太多洞见。同样,你也不可能通过研究羽毛的特性而搞明白鸟是如何飞翔的。
第二个例子来自视觉科学的先驱 David Marr;在视觉理论中,Marr 在其反对神经还原论(neural reductionism)的情景中对例子做了改进。Marr 认为,为了理解我们看见的方式,需要考虑当一只动物在产生视觉时做了什么。视觉的任务是什么?视觉为了什么?只有这样,从动物及其需求和利益的层面给出现象描述,我们才能理智地询问:我们(或者自然)如何才能创造一只动物或一台机器以执行或实现这一功能?并且唯有如此,我才有资格去问,对于大脑的全部功能,个体脑细胞成功做出了哪些贡献?或者在哪些贡献方面失败了?
有趣的是 Marr 的书刚出版,David Hubel 和 Thorsten Wiesel 由于在人类视觉系统信息处理方面的工作而获得了诺贝尔奖。他们根据一代代科学家的先前成果,在猫和猴子中发现了细胞的感受野(receptive field)。简单来说,他们发现不同的细胞分别调试对一种而不是多种刺激(线、杆、运动)反应更灵敏。他们既不提问也不回答这一迫在眉睫的问题:个体神经元的回路如何产生了意识的视觉体验?不仅 Hubel 和 Wiesel,那些认为其工作应该获得科学最高奖项的人都很可能理所当然地认为这个问题存在答案——将使用还原论的某些版本进行解释。
事实上,我们依然不知道大脑是如何形成视觉意识的。但我们可以回到 Marr 的书中,理解为什么是这样的。你不可能从有关个体细胞的事实中获知整体(不是大脑,或者整个有机体)的情况。在利用关于感受野的事实去理解或者解释任何事情之前,还有大量的概念性基础工作要做。
我和其他人已经为此争论了一段时间,并在普遍的炒作中产生了一点可识别的小影响。大脑之年(The Year of the Brain)、大脑的十年(Decade of the Brain)、连接组(Connectome)、大脑计划(Brain project)等等。因此这是一个值得注意的重大事件,也许是真正具有历史意义的事件之一,因为一群来自全世界的顶级神经科学家最近齐聚一堂共同为神经元杂志(the journal Neuron)写一份意见书(opinion piece),呼吁「纠正还原论者的偏见」并拥抱「更多元化的神经科学」。
Hubel 与 Wiesel 曾因猫和猴子大脑中的单细胞电极研究而获得诺贝尔奖。在此之前,唯一能够研究大脑的方法就是死后验尸。在那之后,人们发展出了在活体上研究大脑活动的新技术:fMRI、PET 和其他成像工具,还有遗传操作工具和生物电控技术。以这些新技术与大数据为基础,人们终于绕出了理论的死胡同。更多的信息和更多的知识并不等价,很多数据都在干扰人们的理解,一些已经成型的理论或许只是噪音,甚至比噪音还要糟糕,是噪音伪装出来的洞见。
每个人都知道在个体细胞里是无法找到意识的。但我们现在有了从时间和空间方面对细胞的分布式集成进行建模的工具。当然,意识的关键在于更大的系统之中!在找到正确的问题之前,我们很可能无法得知任何有意义的信息。亦或许我们可以找到一些东西,但是不知道它们到底是什么。就像哥伦布登陆美洲时,他曾把印第安人误认为印度人一样。我给出这个例子是因为 Hubel 在 1981 年获得诺贝尔奖的演讲时,曾将自己和 Wiesel 的研究和哥伦布的探险作了类比。
意见书的作者 John Krakauer 等人可不是悲观主义者,Marr 更不是。为了推进对人类意识(或非人类动物意识)的理解,他们认为研究应从大脑之外开始,如动物的生活、行为、面对的问题和生存所需要的环境。这比分子生物学更接近生物,比神经活动更接近认知和意识。在理解行为之前,我们是无法得知大脑是如何产生意识的。
哲学不是,也从来不是哲学家们的认知属性。科学需要哲学,科学家们不仅需要注意到哲学家们在做什么,在一些时候——比如危急时刻,还需要自己思考哲学问题。他们需要自己提出问题,质疑自己的前提,并进行艰难的概念挖掘工作,让自己获得更可靠的基础。科学家懂的欣赏哲学的价值,并出于科研需要去构建和掌握科研方法所需的背景性知识,我非常赞赏这些努力。
科学从来都不是信息或数据的堆积。科学关注知识的理解。通过呼吁拒绝还原论,并鼓励大脑科学家们重新思考生物体与周遭世界之间的概念谜题,以及它们内部的联系。神经科学家们已经建立了足够的认识,为神经科学和意识方面的研究打下了基础。
[1] Noë, Alva. Action in perception. MIT press, 2004.
[2] O'Regan, J. Kevin, and Alva Noë. "A sensorimotor account of vision and visual consciousness." Behavioral and brain sciences 24.05 (2001): 939-973.