机器学习研究几乎每周都有新进展,不过,这些新进展变成论文呈现在我们眼前的方式,可以说是百余年不变。
昨天,Google Brain的Chris Olah和Shan Carter发布了一份专注于机器学习研究的新期刊:Distill(http://distill.pub/)。不同于过去百余年间的论文,Distill将利用互联网,以可视化、可交互的形式来展示机器学习研究成果。
这份新期刊一经发布,创始人发文Olah表示以后一心搞Distill,不再写博客,Google Research、DeepMind、YC孵化器、OpenAI纷纷发文章进行介绍,Ian Goodfellow等人在Twitter热情转发,Reddit机器学习版也在热烈讨论。
大家的热情不仅仅是因为它背景强大,Distill也确实戳到了从业者们的痛点。
1987年,北京大学的钱天白教授向德国发出了第一封电子邮件。到如今,互联网已经存在了将近30年。然而在这30年间,学术论文不过是原样从纸质期刊搬到了PDF上。
举个栗子:
△ Accelerating Eulerian Fluid Simulation With Convolutional Networks
https://arxiv.org/pdf/1607.03597.pdf
心疼写论文和读论文的科研人员3秒钟。
一篇(理想的)Distill文章,能让用户能直接与机器学习模型进行交互,称他们为“读者”都显得不太合适。
在理想的情况下,这样一篇文章能够将解释,代码,数据和交互式可视化工具集成到一个环境中。在这样的环境中,用户可以用传统静态媒体不可能实现的方式来探索这篇文章。他们可以改变模型的结构,尝试不同的假设条件,并且可以立刻看到操作对结果的影响。这能帮助用户们快速建立对文章的理解。
Distill会以标准方式被收录到传统的学术出版系统,如ISSN,CrossRef等中。你可以在Google学术中搜索到Distill的文章,这也有助于文章的作者获得学术信誉。Distill文章使用创作共享署名授权协议(Creative Commons Attribution licenses)授权,简单来说就是引用要署作者名。
Distill不仅可以发表学术论文,也接受高质量的说明性文章。
发布之初,Distill上已经有了几篇Google团队发表的说明性文章,分别关于神经网络的权值、使用t-SNE方法可视化高维数据、使用神经网络生成手写字母等主题。这些文章就是我们上面提到的“高质量说明性文章”,也向我们展示了Distill文章的形式。
创始人Chris Olah和Shan Carter也是进行整体规划和推进方案执行的关键人物。他们二人在创建高质量的说明文章和可视化技巧方面有着大量的经验,致力于支持作者能够加入视觉和动态元素等,对原创文章创造高质量的展示。
Distill发布的背后也缺不了指导委员会的大力支持,包括以下成员:
Yoshua Bengio(蒙特利尔大学)
Mike Bostock(可视化库d3开发者)
Amanda Cox(纽约时报)
Ian Goodfellow(谷歌大脑)
Andrej Karpathy(人工智能非营利组织OpenAI)
Shakir Mohamed(人工智能企业DeepMind)
Michael Nielsen(创业孵化器Y Combinator)
Fernanda Viegas(谷歌大脑)
刚刚宣布要押注AI赛道的YC孵化器对Distill寄予厚望,他们在官方博客上表示,也许有一天,Distill文章将会以自身能力和独特的风格,成为一个创意性的媒体,一个可以自由探索机器学习研究的媒体。