阿基米德在泡澡的时候,发现了富力原理,也发现了如何计算王冠的体积。
这就是一种抽象推理能力。
对于智能你来说,这个能力是不可或缺的一环。对人工智能也不例外。但是,神经网络的智能到底是有推理能力,还是仅靠肤浅的统计数据?
为了回答这个问题,DeepMind想了一个方法。
给AI搞了一套IQ测试题。
例如,下面这个问题:请问右下角应该是哪个图案?
基于观察、推理能力,一个智能体可以推断出这个问题的答案。基于这样的理念,DeepMind构建了一个问题生成器,涉及一组抽象因素,包括渐进之类的关系,以及颜色和大小等属性。
虽然这个生成器使用了一组潜在因素,但仍然会产生大量独特的问题。
接下来,通过约束生成器可用的因子或组合,就可以创建用于训练和测试模型的不同问题集,看看模型究竟能“聪明”到什么程度。
通过实验,DeepMind发现,当模型在测试中能够正确推断出任务背后的抽象概念时,就能产生良好的性能表现——IQ测试正确率可达87%,否则的话,蒙对答案的概率只有32%。
这份研究结果表明,想得出关于泛化的普遍结论可能是无益的。
参与测试的模型,表现良好与否取决于一系列因素,而几乎在所有情况下,系统在需要推断超出其经验的输入,或处理完全不熟悉的属性时,表现不佳。
总之,这是一个很有意思的方向。
很多人在看到这个研究时,都发出了Interesting的评价~
如果你对这个研究感兴趣,详细的论文在此:
Measuring abstract reasoning in neural networks
传送门:
http://proceedings.mlr.press/v80/santoro18a/santoro18a.pdf
为了鼓励大家继续研究,DeepMind还开源了数据集。
传送门: