【ICCV 2017华人雄起】何恺明包揽两项最佳论文,40%投稿来自中国-阿里云开发者社区

开发者社区> 新智元> 正文
登录阅读全文

【ICCV 2017华人雄起】何恺明包揽两项最佳论文,40%投稿来自中国

简介: 计算机视觉顶会ICCV 2017各大奖项公布:何恺明包揽两项最佳论文奖;贾扬清率Caffe团队获“无私贡献奖”;DeepMind CEO 哈萨比斯导师Tomaso Poggio获得终身成就奖。沿袭CVPR的势头,ICCV 2017华人表现依然强劲,有40%的投稿来自中国,清华大学投稿数量在所有机构中位居第一。

计算机视觉顶会ICCV 2017各大奖项公布:何恺明包揽两项最佳论文奖;贾扬清率Caffe团队获“无私贡献奖”;DeepMind CEO 哈萨比斯导师Tomaso Poggio获得终身成就奖。沿袭CVPR的势头,ICCV 2017华人表现依然强劲,有40%的投稿来自中国,清华大学投稿数量在所有机构中位居第一。

0?wx_fmt=gif&tp=webp&wxfrom=5&wx_lazy=1


两年一度的计算机视觉领域顶会ICCV 2017正在意大利威尼斯召开。由于计算机视觉及相关领域的快速发展,本届ICCV参与度创历史新高,共收到2143篇论文投稿,比上届增加了26%。其中,621篇被接收,接收率约29%,与往届持平(ICCV 2015 收到 1698 篇投稿,录取率为30.3%)。

投稿数量统计:ICCV 中国崛起

在ICCV 2017的各种统计数字中,可能最引人瞩目的,是中国崛起。

根据投稿作者的邮箱地址,有844篇论文(将近40%)来自中国,美国以934篇位居第一。看投稿数量,中美两国也遥遥领先。


640?wx_fmt=jpeg&tp=webp&wxfrom=5&wx_lazy


其中,投稿数量最多的机构是清华大学,超越了CMU,超越了谷歌,超越了MIT。上海交通大学和北航分别位列第八、第九。


640?wx_fmt=jpeg&tp=webp&wxfrom=5&wx_lazy


新智元粗略统计,今年ICCV 接收论文中,有40%的第一作者都是华人。

虽然不尽是华人,我们也在本届大会主席团队中见到了熟悉的名字,本届ICCV的大会主席之一是微软亚洲研究院首席研究员池內克史。两位Workshop Chair,一位是微软的Sing Bing Kang,另一位是预定出任CVPR 2019 程序主席的上海科技大学&特拉华大学教授虞晶怡

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

ICCV 2017 热词:新智元对ICCV 2017录用论文标题做了词频统计,“深度学习”、GAN、识别、检测依然是热词。


何恺明携 Mask R-CNN 获得 ICCV 2017最佳论文奖

作为与CVPR、ECCV齐名的计算机视觉三大顶级会议之一,ICCV的论文集代表了计算机视觉领域最新的发展方向和水平,也令ICCV 2017最佳论文尤其受到关注。

ICCV 2017的最佳论文奖(Marr prize)颁发给了Facebook AI实验室(FAIR)何恺明等人的论文《Mask R-CNN》。

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

ICCV 2017最佳论文颁发给了Mask R-CNN


论文标题非常简洁,就是“Mask R-CNN”:

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

摘要

我们提出一个概念上简单,灵活,通用的物体实例分割框架(object instance segmentation)。我们的方法能有效检测图像中的对象,同时为每个实例生成高质量的分割掩膜(segmentation mask)。我们将该方法称为 Mask R-CNN,是在 Faster R-CNN 上的扩展,即在用于边界框识别的现有分支上添加一个并行的用于预测对象掩膜(object mask)的分支。Mask R-CNN 的训练简单,仅比 Faster R-CNN 多一点系统开销,运行速度是 5 fps。此外,Mask R-CNN 很容易推广到其他任务,例如可以用于在同一个框架中判断人的姿势。

我们在 COCO 竞赛的3个任务上都得到最佳结果,包括实例分割,边界框对象检测,以及人物关键点检测。没有使用其他技巧,Mask R-CNN 在每个任务上都优于现有的单一模型,包括优于 COCO 2016 竞赛的获胜模型。我们希望这个简单而有效的方法将成为一个可靠的基准,有助于未来的实例层面识别的研究。


640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

图1:用于实例分割的 Mask R-CNN 框架

Mask R-CNN 在概念上十分简单:Faster R-CNN 对每个候选物体有两个输出,即一个类标签和一个边界框偏移值。作者在 Faster R-CNN 上添加了第三个分支,即输出物体掩膜(object mask)。因此,Mask R-CNN 是一种自然而且直观的想法。但添加的 mask 输出与类输出和边界框输出不同,需要提取对象的更精细的空间布局。Mask R-CNN 的关键要素包括 pixel-to-pixel 对齐,这是 Fast/Faster R-CNN 主要缺失的一块。

最佳学生论文奖:也出自FAIR,何恺明也有参与


640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

ICCV 2017最佳学生论文颁发给了FAIR的《密集物体检测Focal Loss》


这篇最佳学生论文也出自 FAIR 团队之手,一作是 Tsung-Yi Lin。值得一提,何恺明也有参与,不愧为大神。

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

摘要


目前,最准确的目标检测器(object detector)是基于经由 R-CNN 推广的 two-stage 方法,在这种方法中,分类器被应用到一组稀疏的候选对象位置。相比之下,应用于规则密集的可能对象位置采样时,one-stage detector 有潜力更快、更简单,但到目前为止,one-stage detector 的准确度落后于 two-stage detector。在本文中,我们探讨了出现这种情况的原因。

我们发现,在训练 dense detector 的过程中遇到的极端 foreground-background 类别失衡是造成这种情况的最主要原因。我们提出通过改变标准交叉熵损失来解决这种类别失衡(class imbalance)问题,从而降低分配给分类清晰的样本的损失的权重。我们提出一种新的损失函数:Focal Loss,将训练集中在一组稀疏的困难样本(hard example),从而避免大量简单负样本在训练的过程中淹没检测器。为了评估该损失的有效性,我们设计并训练了一个简单的密集目标检测器 RetinaNet。我们的研究结果显示,在使用 Focal Loss 的训练时,RetinaNet 能够达到 one-stage detector 的检测速度,同时在准确度上超过了当前所有 state-of-the-art 的 two-stage detector。  

再来看看最佳论文提名奖,今年有3篇论文入选,分别是:

  • First Person Activity Forecasting with Online Inverse Reinforcement Learinng
作者:Nicholas Rhinehart; Kris M. Kitani
  • Open Set Domain Adaptation
作者:Pau Panareda Busto, Juergen Call 
  • Globally-Optimal Inlier Set Maximasation for Simultaneous Camera Pose and Feature Correspondence 
作者:Dylan Campbell, Lars Petersson, Laurent Kneip, Hongdong Li
DeepMind CEO 哈萨比斯博士导师获终身成就奖;Caffe 团队获“无私贡献奖”

ICCV 2017 还宣布了其他奖项,得主也都是CV界如雷贯耳的人物/名字。下面分别做简单介绍。

Azriel Rosenfeld 终身成就奖

该奖用于奖励在长期职业生涯中为计算机视觉领域作出突出贡献的杰出研究者,Azriel Rosenfeld 终身成就奖颁发给了MIT的Tomaso Poggio教授。

Tomaso Poggio是MIT大脑和认知科学系Eugene McDermott教授,生物和计算学习中心联合主任,计算机科学和人工智能实验室成员,是AAAI Founding Fellow。Poggio 教授的博士生和博士后中不乏当今AI翘楚,包括Mobileye的创始人兼CTO Amnon Shashua,以及DeepMind 的创始人兼CEO Demis Hassabis。

杰出研究员奖(Distinguished researcher award)

基于主要研究贡献及影响激发其他研究,该奖项用于奖励对计算机视觉发展作出重大贡献的研究者。得主:Luc van Gool; Richard Szeliski

Luc van Gool是ETH Zurich大学教授,研究领域为计算机视觉和图像处理。Richard Szeliski是Facebook的研究科学家、计算摄影组主任。

Mark Everingham 奖

该奖项用于奖励为计算机视觉社区作出无私而重要贡献的研究员,包括个人和团队。今年的Everingham prize颁发给了Caffe团队和ICVSS组织者。

Caffe这个深度学习框架相信大家都很熟悉了,它的作者贾扬清现任Facebook研究科学家,曾在谷歌大脑工作,也是TensorFlow的作者之一。在获得这个“无私贡献奖”以后,贾扬清发布朋友圈,表示奖金已经捐献给伯克利工程院。在这里,我们也向Caffe 团队表示祝贺与感谢——贾扬清、Evan Shelhamer、Jeff Donahue、Sergey Karayev、Jonathan Long、Ross Girshick、Sergio Guadarrama、Trevor Darrell。

ICVSS全称International Computer Vision Summer School(国际计算机视觉暑期研讨会),是一年一度的计算机领域的重要会议。ICVSS组织者Sebastiano Battiato、Roberto Cipolla、Giovanni Farinella

Helmholtz prize 经典论文奖

本奖项认可对计算机视觉研究有重大意义、十年前的的论文,以表彰在计算机视觉领域作出的基础贡献。

  • I Laptev and T Lindeberg, Space-time interest points
  • A Efros, A Berg, G Mori, J Malik, Recognizing action at a distance
  • J Sivic, A Zisserman, Video Google: A text retrieval approach to object matching in videos
  • M Brown, D Lowe, Recognising panoramas
  • J Sivic, B Russell, A Efros, A Zisserman, W Freeman, Discovering objects and their location in images
  • K Grauman, T Darrell, The pyramid match kernel: Discriminative classification with sets of image features
  • M Blank, L Gorelick, E Shechtman, M Irani, R Basri, Actions as space-time shapes
腾讯优图12篇论文入选,3篇Oral,全球首个AI卸妆算法

按照惯例,除主要会议外,今年的ICCV还有其他一系列活动,包括44个workshop(比之前多了63%)、9个tutorial和产业展览。

工业界的参与度也很高。超过60家公司,包括创业公司和大公司,都在本届ICCV上展示他们的最新技术。组委会比较自豪的一点,今年来自企业的赞助是上届的3倍。

根据目前已经公布的结果,除了上文提到投稿数量大于20的机构,Facebook 有 15篇论文入选 ICCV 2017。腾讯优图团队也表现不俗,共有12篇论文入选,其中3篇被选做口头报告(Oral)——本届ICCV,只有2.09%的论文以oral的形式发表。

此次腾讯优图入选的论文提出了诸多亮点:全球首个AI卸妆效果的算法;现今最准确的单张图像深度估计算法;完美解决多帧信息融合困难的多帧超分辨率视频结果;史无前例的手机双摄图像匹配和分割研究成果。


640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

腾讯优图与香港中文大学合作论文,美化人像的盲复原


在即将于11月8日举办的AI World 2017世界人工智能大会上,2017年5月加入腾讯优图的贾佳亚博士将发表题为《计算机视觉AI新认识》的演讲,他会把先进的计算机视觉研究成果做一个重新划分和归类,展示给大家一个有很多具体内容的视觉研究画卷。

贾佳亚介绍说,“一直以来,我们都在创新;所以我也会给大家看到新的有趣的应用,同时拨开云遮雾绕,还原视觉AI的技术真实水平。最后我也会和大家介绍腾讯优图实验室视觉AI的发展。”


原文发布时间为:2017-10-25

本文作者:闻菲,常佩琦,刘小芹

本文来自云栖社区合作伙伴新智元,了解相关信息可以关注“AI_era”微信公众号

原文链接:【ICCV 2017华人雄起】何恺明包揽两项最佳论文,40%投稿来自中国

版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。

分享:
+ 订阅

官方博客
官网链接