AI研究的另一个领域是进化计算(evolutionary computation),它借鉴了达尔文(Darwin)的著名自然选择(natural selection)理论,并发现遗传算法(genetic algorithms)经历了几代之间的随机突变(random mutations)和组合(combinations),试图进化出给定问题的最优解决方案(the optimal solution)。
这种方法甚至被用来帮助设计AI模型,有效地利用AI来帮助构建AI。这种使用进化算法用于优化神经网络的方法称为神经进化(neuroevolution),并且随着智能系统的使用变得越来越普遍,尤其是当对数据科学家的需求经常超过供给时,这种方法在帮助设计高效AI方面可以发挥重要作用。 Uber AI Labs最近展示了该技术,该实验室发布了有关使用遗传算法训练深度神经网络以解决强化学习(reinforcement learning)问题的论文。
最后还有专家系统(expert systems),在这种系统中,用规则(rules)对计算机进行编程,使它们可以基于大量输入来做出一系列决策(decisions),从而使机器能够模仿(mimic)特定领域中人类专家的行为。这些基于知识的系统(knowledge-based systems)的一个例子可能是驾驶飞机的自动驾驶系统(an autopilot system)。
是什么推动了AI的复兴?
近年来,AI研究的最大突破是在机器学习领域,尤其是在深度学习领域。
这在某种程度上是由于数据的易获得性所驱动,但更重要的是由于近年来并行计算能力的爆炸式增长,在此期间,使用GPU集群来训练机器学习系统变得更加普遍。
这些集群不仅为训练机器学习模型提供了强大得多的系统,而且现在可以作为Internet上的云服务广泛使用。随着时间的推移,像Google和Microsoft这样的主要科技公司已经转向使用专门针对运行和最近用于训练机器学习模型的专用芯片(chips)。
这些定制芯片中的一个例子是Google的Tensor处理单元(Tensor Processing Unit,TPU),其最新版本加快了使用Google TensorFlow软件库构建的有用的机器学习模型从数据中推断信息的速率,以及它们被训练的速率。
这些芯片不仅用于训练DeepMind和Google Brain的模型,还用于支持Google Translate和Google Photo中的图像识别的模型,以及允许公众使用Google的TensorFlow Research Cloud构建机器学习模型的服务。第二代这些芯片已于去年5月在Google的I/O会议上揭晓,其中的一系列新TPU能够训练用于翻译的Google机器学习模型,所需时间仅为高端图形处理单元(graphics processing units,GPU)的一半。
机器学习的要素是什么?
如前所述,机器学习是AI的一个子集,通常分为两大类:监督学习和非监督学习。