《仿人机器人原理与实战》一2.1 行为链生物学基础

简介:

本节书摘来异步社区《仿人机器人原理与实战》一书中的第2章 ,第2.1节,作者布莱恩·伯杰伦(Bryan Bergeron) 托马斯B. 塔尔博特(Thomas B. Talbot) 王伟 魏洪兴 刘斐 译, 更多章节内容可以访问云栖社区“异步社区”公众号查看。

2.1 行为链生物学基础

很多时候人们都在参与潜意识的本能活动中,这些活动是由一系列反射弧链或者序列组成的。图2-1展示了许多链式结构中的一种。从等待状态1开始,触发事件A产生反射A,依照当前条件是1还是2,反应链链接到反射B或D。反射B受到来自大脑的抑制作用以及来自肾上腺素的激励作用。反射作用B链接到反射C,反射C链接回到初始等待状态1。
同样,依照图2-1,如果反射A在条件2下发生,反射D将会跟随反射A发生,最终链接到等待状态2。这条链保持在等待状态直到触发事件B发生,链接到反射C,最后链接到等待状态1。但是,由于反射作用A的不应期的作用,可能另一个触发事件A将会在触发事件B发生前使行为链处于动作状态。这个关于触发事件A和B的假设的讨论令人费解,当我们讨论在特定的反射作用下的动作链时将赋予它更多的意义。目前为止,我们只需要熟悉一下图2-1。


1


例如在军队中,动作链主要是紧急备战,战士们将在很长时间中没有动作直到触发事件发生。进化的目标理所应当是给大脑皮质提供休息时间,以便有空琢磨打赢《使命召唤》的战略。鉴于我们要完成各种不同的脑力劳动,因此许多动作链在其他生物中也普遍存在且具有相似的形式。下面我们考虑一种人工生命形式—微处理器的历史。

2.1.1 小鼠迷宫

当英特尔公司在1971年推出微处理器时,它面临一个很大的问题:如何让科技人员改变他们固有的解决问题的方式。为了吸引人们关注新型电子设备,因特尔公司举办了一场比赛,比赛要求各参赛队伍分别基于因特尔芯片设计一只电子小鼠。因特尔公司还特别设计了一个迷宫,使电子小鼠最快走出迷宫的队伍将获得10000美元奖金。
从表面上来看,这场比赛更像是大老鼠比赛,因为电子小鼠和鞋的尺寸一样大。比赛中有一些实际限制,例如驱动电子小鼠轮子的电机大小、电池尺寸以及电路板上随机存储器(RAM)的数量。然而在小鼠设计中最重要的是队伍的想象力和创意。对于那个年代的机器人来讲真正的挑战是如何在微处理器有限的计算和存储能力限制下设计一个合适的解决方案。
参赛者应用了多种解决方法,有的在老鼠的身体四周布满了红外线传感器和开关,有的采用能探测到迷宫壁的胡须。大多数设计都尝试在随机存储器中创建一张迷宫地图。然而获胜的小组采用了一种更为简单合适的方法。这个小组尝试学习老鼠的实际行为习惯—行为链,研究啮齿类动物在地球上任意超级大都市的大楼废墟中导航的方式。
获胜的小组发现老鼠分为两种:左转老鼠和右转老鼠。在管道末端面临向左转还是向右转问题时,左转老鼠习惯向左转,而右转老鼠则习惯向右转。事实证明在老鼠有足够食物和水的条件下,不论迷宫多大或多复杂,一直采用左转或右转策略都可以使老鼠走出迷宫。
或许你已经猜到了,获胜的小组设计了一只右转老鼠。这个小组并不需要新的微处理器,仅仅是为了满足竞赛要求才把它加入设计中。小组成员用微处理器来监视装在小鼠右侧的塑料胡须上的开关。当胡须与右侧的墙壁脱离接触时,机器老鼠向右转直到胡须重新接触到墙壁。通过这种方式,机器小鼠维持与右侧墙壁接触,最终走出迷宫。其他机器小鼠有些运用了复杂的机器学习算法,但它们或是卡在迷宫中某个位置或是很慢才走出迷宫。
显然,思考的机器输给了实践的机器。建立一个简单的行为链模型,控制机器人进行行动而不是复杂的思考,这种方式比拥有强大的数字处理能力更有效。你想设计一个经济的仿人机器人,不运用超级计算机或是破坏墙壁的电锯,使它能够走出错综复杂的迷宫吗?那么你的选择不应当是人工智能,而是智能动作(Intelligence Action,IA)。

2.1.2 智能动作和行为链

行为链是由若干激励产生的一系列反射。例如,当你被蚊子叮咬时去打它们,当皮肤痒的时候去抓挠,当碰到滚烫的炉壁时缩手,当有闪光的时候去看,这些都是基于一些反射的简单行为链。许多常见的行为链包含了许多复杂的相互交错的反射,这些反射都是由来自大脑的潜在输入信号和内分泌系统产生的。
事实证明我们的大脑并不擅长考虑p的本质,而是更擅长模式识别。大脑特别擅长识别有威胁的和潜在致命的信号。我们能够在笑脸的海洋中立即识别出眉头紧皱的脸(一个潜在的威胁)。类似地,人们可能会忽视一只蜜蜂,但是当面对蜂群的时候,肾上腺素一定会流经血管。
人类生来就有天生的行为链或是本能,但是许多行为链都是直到神经系统发育成熟才会变得明显。其他行为链只能通过经验来形成。例如,许多婴儿本能地一口气吃光冰淇淋,但是会直接吐出菠菜奶油沙司。可能由于我们的祖先在树上生活的原因,人类在一定年纪之前是不会恐高的。类似地,许多幼儿很容易受到噪音的惊吓;但即使他们没有形成走人行道而不横穿马路的巴甫洛夫行为链,这种行为也不会通过基因遗传。
我们除了有共有的行为链以外,也有每个人特有的行为链。典型的性格坐标轴—控制力、责任心、情绪稳定性和坦率(如图2-2所示),同样可以应用于人类、仿人机器人甚至面包机。性格坐标是在一个时间点上定义了一种特殊性格的各个特征的相关表达。例如,典型的服务员和服务机器人的性格特征为顺从、有责任心、情绪稳定和坦率。相比较而言,一个典型的士兵会在控制力上得高分,在责任心和坦率上得分较低,在情绪稳定性上的得分只是很小的正数。


2


性格会随着时间和环境发生变化,如果我们讨论人类,则还包括年龄和健康状态变化。一个典型的老人的性格特征一般不会那么乐观,也不会那么开放和强势。生理和心理上的疾病可能会导致老人情绪上的不稳定以及缺乏责任心。我们会在第8章中详细讨论老年化对仿人机器人可能的影响。

2.1.3 最小可觉差

与触发行为链相关的一个概念是人的一种感知天性,叫作最小可觉差(Just Noticeable Difference,JND)。正如它的名字意味的那样,它可能是音量、倾斜度、温度、光强的变化,或者其他至少有50%的几率(“最小”所指的概念)被人们感知的激励。对于大多数人和大多数激励来说,最小可觉差与初始强度的比例是一个常数,即韦伯常数(Webber constant)。
举个实际的例子,如果有人将你的立体声放大器的音量从2调到4,你有50%的几率能够感知,那么当音量从9调到11时,你感受到变化的几率将不是50%。在这里我们假设音量电位计和音量的数字标签在音量旋钮上是均布的。

相关文章
|
5月前
|
算法 机器人 Python
动态规划法在扫地机器人中的实战应用(基于动作值函数的策略迭代 python 附源码)
动态规划法在扫地机器人中的实战应用(基于动作值函数的策略迭代 python 附源码)
41 0
|
4月前
|
传感器 机器人 C++
ROS 2机器人编程实战:基于现代C++和Python 3实现简单机器人项目
ROS 2机器人编程实战:基于现代C++和Python 3实现简单机器人项目
201 0
|
4月前
|
人工智能 算法 机器人
【Python数据结构与算法】--- 递归算法的应用 ---[乌龟走迷宫] |人工智能|探索扫地机器人工作原理
【Python数据结构与算法】--- 递归算法的应用 ---[乌龟走迷宫] |人工智能|探索扫地机器人工作原理
34 0
|
5月前
|
机器学习/深度学习 自然语言处理 机器人
【Tensorflow+自然语言处理+RNN】实现中文译英文的智能聊天机器人实战(附源码和数据集 超详细)
【Tensorflow+自然语言处理+RNN】实现中文译英文的智能聊天机器人实战(附源码和数据集 超详细)
46 0
|
5月前
|
自然语言处理 机器人 数据库
【Python自然语言处理+tkinter图形化界面】实现智能医疗客服问答机器人实战(附源码、数据集、演示 超详细)
【Python自然语言处理+tkinter图形化界面】实现智能医疗客服问答机器人实战(附源码、数据集、演示 超详细)
77 2
|
5月前
|
机器学习/深度学习 自然语言处理 机器人
【Tensorflow+自然语言处理+LSTM】搭建智能聊天客服机器人实战(附源码、数据集和演示 超详细)
【Tensorflow+自然语言处理+LSTM】搭建智能聊天客服机器人实战(附源码、数据集和演示 超详细)
221 0
|
5月前
|
机器学习/深度学习 存储 算法
强化深度学习中使用Dyna-Q算法和优先遍历算法在机器人实战中的对比分析(超详细 附源码)
强化深度学习中使用Dyna-Q算法和优先遍历算法在机器人实战中的对比分析(超详细 附源码)
32 0
|
5月前
|
机器学习/深度学习 算法 数据可视化
强化深度学习中使用Dyna-Q算法确定机器人问题中不同规划的学习和策略实战(超详细 附源码)
强化深度学习中使用Dyna-Q算法确定机器人问题中不同规划的学习和策略实战(超详细 附源码)
41 0
|
5月前
|
机器学习/深度学习 算法 机器人
深度强化学习中利用Q-Learngin和期望Sarsa算法确定机器人最优策略实战(超详细 附源码)
深度强化学习中利用Q-Learngin和期望Sarsa算法确定机器人最优策略实战(超详细 附源码)
50 0
|
10月前
|
机器学习/深度学习 传感器 编解码
路径规划算法:基于生物地理优化的机器人路径规划算法- 附matlab代码
路径规划算法:基于生物地理优化的机器人路径规划算法- 附matlab代码

热门文章

最新文章