中国人工智能学会通讯——人类作为“情感机器”——效用函数、情绪和社会偏好

简介:

image

20世纪五六十年代,受到当时新兴的信息论和控制论的影响,心理学界开启了一场认知科学革命[1]。先前占主导地位的行为主义只关注刺激与行为之间的联结,以经典条件反射和操作性条件反射(后者亦称为“强化学习”)为代表。认知科学则强调刺激与行为之间的信息加工过程,在感知觉、注意、学习、记忆、语言、推理和决策等领域都提出了信息加工模型,进行了大量的实证研究。20世纪90年代以后,认知科学进一步与快速发展的无创脑成像技术相结合,形成了认知神经科学,极大地深化了我们对于人脑与人类行为的理解。

也正是在20世纪五六十年代,人工智能开始萌芽[2]。在半个多世纪之后的今天,人工智能在机器视觉、自然语言理解和策略性游戏等方面都取得了瞩目的成就,在特定的任务中能够接近甚至超越人类的绩效。一方面,人工智能的设计借鉴了认知和神经科学中的发现。例如,人类视觉系统的层级化组织、选择性注意的机制、强化学习等。另一方面,人工智能的发展也给我们对于人脑和人类行为的理解带来了启示。例如,强化学习的概念源于心理学,指的是人类和动物会习得受到奖赏的行为,而避免受到惩罚的行为。计算机科学家将这个概念发展为一系列算法,可以有效地解决高维的控制或序列决策问题[3]。作为计算机算法的强化学习,反过来又被引入神经科学,用于理解人类和动物在复杂任务中的学习[4]。

然而,人工智能的终极梦想——在整体上接近人类智能的通用人工智能——仍未实现。不同于只适用于某个特定任务场景的专用人工智能,通用人工智能的目标是像人类一样具备在各种不同场景下的学习和判断能力。那么,人类的通用智能又从何而来?例如,人们在试图解决一个困难的问题时怎样决定,是继续还是放弃,或者另辟蹊径?

人工智能的创始人之一Marvin Minsky在晚年写下了《情感机器》[5]一书,将人类比作“情感机器”,提出了一个颠覆性的观点:情绪系统是人类智能不可或缺的重要部分。虽然情绪对于生存(例如面对危险是战是逃)和人际交流的意义很早就被认识到,情绪系统通常被理解为一个平行于人类的理性思考的“非理性”系统[6]。研究者虽然尝试让人工智能理解人类的情绪,但似乎并不认为,人工智能本身拥有情绪是必要或有益的。Minsky提出,某个特定任务的特定阶段需要特定的认知模块的参与,而人脑正是通过情绪系统实现了不同认知模块之间的协调。他从哲学的角度剖析了各种情绪对于认知活动的影响,例如,对当前行为的羞愧感会促使人们重新设定行为的目标。

本文将从认知神经科学的角度,综述使人类智能有别于专用人工智能的一些必不可少的“非理性”成分——效用函数(Utility function)、情绪(Emotion)和社会偏好(Social preference)。过去10多年里,神经经济学——神经科学与经济学的交叉学科——的发展[7],使我们对于效用函数、情绪和社会偏好相关的计算和神经机制有了相当程度的认识。

相关文章
|
5天前
|
人工智能 数据挖掘 大数据
人工智能模型决策过程:机器与人类协作成效
决策智能(DI)融合AI与人类判断,提升商业决策质量。通过数据驱动的预测与建议,结合人机协作,实现更高效、精准的业务成果,推动企业迈向数据文化新阶段。(238字)
|
5月前
|
数据采集 人工智能 缓存
深挖“全栈智算”之力 中兴通讯开启AI普惠新纪元
深挖“全栈智算”之力 中兴通讯开启AI普惠新纪元
165 1
|
10月前
|
机器学习/深度学习 人工智能 自然语言处理
人工智能与艺术创作:机器与创造力
【10月更文挑战第31天】本文探讨了人工智能在艺术创作中的应用,涵盖绘画、音乐和文学等领域。通过深度学习、生成模型和强化学习等技术,AI正重新定义创造力的概念,辅助艺术家创作,并激发新的艺术形式。文章还讨论了AI对人类创造力的影响及未来发展趋势。
|
12月前
|
机器学习/深度学习 人工智能 算法
人工智能在艺术创作中的创新应用:机器创作的未来
【9月更文挑战第25天】 人工智能在艺术创作中的创新应用,不仅为艺术家们提供了全新的创作工具和媒介,更在创作理念、艺术形态等方面带来了深刻的变革。随着技术的不断发展和完善,机器创作将在未来展现出更加广阔的发展前景。我们期待在人工智能的助力下,艺术创作能够迎来更加繁荣和多元的未来。
|
人工智能 自动驾驶 算法
《人工智能伦理:机器的自主性与人类的责任》
随着人工智能(AI)技术的飞速发展,其应用已渗透到社会的各个领域。然而,AI技术的快速发展也带来了一系列伦理问题,特别是关于机器自主性与人类责任的界定。本文将探讨AI的伦理挑战,分析机器自主性的发展趋势,以及在AI决策过程中人类应承担的责任。通过案例分析和数据支持,我们将深入讨论如何在保障技术进步的同时确保伦理标准的制定和遵守,以实现人机和谐共存的未来。
379 27
|
人工智能 安全 Anolis
中兴通讯分论坛邀您探讨 AI 时代下 OS 的安全能力 | 2024 龙蜥大会
操作系统如何提供符合场景要求的安全能力,构建更加安全可信的计算环境。
|
机器学习/深度学习 人工智能 自动驾驶
人工智能的伦理困境:机器的自主性与人类的责任
【8月更文挑战第8天】在人工智能技术飞速发展的今天,一个日益凸显的问题是关于AI的伦理困境。随着机器学习和深度学习技术的进步,AI系统展现出越来越高的自主性,这引发了关于人类责任和控制的哲学讨论。本文将探讨AI自主性的提升如何影响人类的伦理责任,以及我们应如何平衡技术进步与道德考量。
|
机器学习/深度学习 人工智能 开发者
人工智能的伦理困境:机器决策与道德责任
【8月更文挑战第3天】 在人工智能技术飞速发展的今天,机器学习和自动化决策系统正逐步渗透到我们生活的方方面面。然而,随着技术的进步,一系列伦理问题也随之浮现。从数据偏见到隐私侵犯,再到机器自主性引发的责任归属问题,人工智能的伦理挑战不容忽视。本文将探讨AI技术中存在的几个关键伦理议题,并讨论如何通过制定合理的政策和技术框架来应对这些挑战。
384 3
|
人工智能
人工智能的伦理困境:机器是否应拥有权利?
【8月更文挑战第6天】 随着人工智能技术的飞速发展,机器在处理复杂任务、决策甚至创造性工作方面的能力越来越强。这引发了一个深刻的哲学和法律问题:当人工智能达到某种智能水平时,我们是否应该赋予它们某些权利?本文将探讨这一话题,分析支持与反对的观点,并讨论可能的社会影响。
369 1
|
人工智能 算法 自动驾驶
人工智能的伦理困境:当机器拥有道德决策权
随着人工智能技术的飞速发展,机器逐渐在多个领域承担起人类的工作,甚至在某些情境下开始参与或主导决策过程。然而,当AI涉足需要道德判断的领域时,一系列复杂的伦理问题随之浮现。本文将探讨AI进行道德决策时所面临的挑战,分析可能的后果,并提出未来研究方向。

热门文章

最新文章