这个小游戏,你大概还有点印象。机器给出一个名词,给你20秒时间画画,同时,它会根据你画的东西一直猜猜猜。
游戏的名字,叫“Quick, Draw!”。
今天,谷歌开放了Quick, Draw!数据集,包含345类、5000万幅简笔画。这些简笔画,来自这个小游戏的1500万用户。
数据集的GitHub地址:
https://github.com/googlecreativelab/quickdraw-dataset
与通常的图像数据集不同,谷歌捕捉了这些简笔画的绘制过程,存储成为一组带时间戳的向量,并加上了元数据信息标签,包括机器要求用户画的是什么、用户所在国家等。
机器成功认出的图像,也就是被收录到数据集中的那些,都展示在Quick, Draw!的数据集网站上:https://quickdraw.withgoogle.com/data
△ Quick, Draw!游戏玩家画的苹果
谷歌希望开发者、研究人员和艺术家,能用这些数据来进行研究、探索。他们说,这些简笔画构成了一个独特的数据集,开发者可以用它来训练新的神经网络,研究人员可以借助它探索世界各地人民画画的模式,艺术家则可能从中获得灵感,创造我们从未想过的东西。
如果你用这个数据集创造了什么东西,谷歌希望你通过邮件告诉他们,或者去A.I. Experiments网站提交。
邮箱:quickdraw-support@google.com
网站:https://aiexperiments.withgoogle.com/submit
上个月,谷歌用这个数据集完成了一个教机器画画的项目:Sketch-RNN。在这个项目中,机器不仅学会了画简笔画,还对自己所画的东西建立了抽象概念,比如说知道猫应该有两只眼睛,猪有四条腿。
谷歌大脑团队研究员David Ha和Douglas Eck发表了论文《A Neural Representation of Sketch Drawings》来详细阐释这个项目,并在谷歌官方博客上发文做了通俗说明。
在Quick, Draw!数据集开放之后,Sketch-RNN模型也在谷歌的艺术项目Magenta下开源。谷歌开放了Sketch-RNN的预训练模型、供你在TensorFlow中训练自己模型用的源代码、以及一份Jupyter notebook教程。
最后,这里还有一个Douglas Eck发布的视频,展示了Sketch-RNN生成的瑜伽过程:
10秒左右,模型为画面中的人,加了个瑜伽垫,你会看到机器懵了一会儿。具体原因,作者在项目相关论文中做出了解释。
Sketch-RNN开源模型:
https://github.com/tensorflow/magenta/tree/master/magenta/models/sketch_rnn
A Neural Representation of Sketch Drawings论文:
https://arxiv.org/abs/1704.03477
【完】