从达摩院宣布成立起,这个阿里的“神秘机构”就备受外界关注。造福人类,世界第一,高端,神秘……这些标签也让我们对达摩院的技术专家产生了好奇。
在外界人眼中,达摩院人才济济,大多是奇人异士,做着神秘且高端的研究。不曾想,这群有如扫地僧一般的神秘专家们竟然做了一个百宝箱——阿里云视觉智能开放平台(vision.aliyun.com),将研究出来的各种人脸识别,图像识别等视觉AI能力都开放了出来!打开百宝箱可以看到他们已经做了人脸识别,文字识别,商品理解,内容安全,图像识别,图像增强,图像分割,目标检测等140+种视觉AI能力,全都可以通过API的形式调用!就拿其中一项来说你会发现大牛们用图像分割的视觉AI能力,把抠图玩转得炉火纯青,而且这一切都朝着不受控制的方向发展了......
你看看,万物皆可抠!
部分图片来源淘宝商品图
达摩院大牛们为什么要开始研究抠图?
这要从阿里巴巴智能设计实验室自主研发的一款设计产品鹿班说起。鹿班的初衷是改变传统的设计模式,使商家在短时间内完成大量banner图、海报图和会场图的设计,提高工作效率。并且通过鹿班制图可以、传达高质视觉效果,从而提升商品吸引力和买家视觉体验,达到提升商品转化率的目的。而在制图的过程中,商品抠图是一项不可避免且繁琐的工作,一张人像精细抠图平均需要耗费设计师2h以上的时间,这样无需创意的纯体力工作亟需被AI所取代,所以抠图算法应运而生。
近几年图像抠图算法逐渐进入人们的视野,如腾讯(天天P图)、百度(人像抠图、汽车分割)等。而潜藏在其背后的行业:泛文娱,电商行业、垂直行业,诸如在线餐饮、媒体、教育等行业商业价值不容小觑,可以满足各种战报、在线课程教师抠图、视频封面制作等不同形式的图片制作需求拓展。市面上的一些抠图算法效果在人像发丝细节处理均不是很好,且对一些通用场景(电商等)支持也不是很好。达摩院大牛们针对这两个问题一方面设计更具有泛化能力的系统、一方面深化发丝和高度镂空相关算法,均有更好的效果。
遇到的难题和解决方案
最开始在上手鹿班“批量抠图”需求时,达摩院大牛们发现用户上传的图像质量、来源、内容五花八门,想用一个模型实现业务效果达到一劳永逸很难。在经过对场景和数据的大量分析后,定制整体框架如下:
主要涵盖了过滤、分类、检测、分割四个模块:
- 过滤:滤掉差图(过暗、过曝、模糊、遮挡等),主要用到分类模型和一些基础图像算法;
- 分类:瓶饮美妆等品类商品连通性比较好,3C、日用、玩具等品类则反之,另外场景(如人头、人像、动物)需求也是各具差异,故而设计不同的分割模型提升效果;
- 检测:在鹿班场景用户数据多来自于商品图,很多是经过高度设计的图像,一图多商品、多品类、主体占比小,也不乏文案、修饰、logo等冗余信息,增加一步检测裁剪再做分割效果更精准;
- 分割:先进行一层粗分割得到大致mask,再进行精细分割得到精确mask,这样一方面可以提速,一方面也可以精确到发丝级;
如何让效果更精准?
目前分类、检测模型相对比较成熟,而评估模型则需要根据不同场景做一些定制(电商设计图、天然摄影图等),分割精度不足,是所有模块中最薄弱的一个环节,因此成为了达摩院大牛们的主战场。以下是来自他们的自我阐述:‘’
- 分类模型:分类任务往往需要多轮的数据准备,模型优化,数据清洗才能够落地使用。据此,我们设计完成了一个自动分类工具,融合最新的优化技术,并借鉴autoML的思想,在有限GPU资源的情况下做参数和模型搜索,简化分类任务中人员的参与,加速分类任务落地。
- 评估模型:直接使用回归做分数拟合,训练效果并不好。该场景下作为一个前序过滤任务,作为分类问题处理则比较合理。实际我们也采用一些传统算法,协助进行过暗、过曝等判断。
- 检测模型:主要借鉴了FPN检测架构。1、对特征金字塔每一层featuremap都融合上下相邻层特征,这样输出的特征潜在表征能力更强;2、特征金字塔不同层特征分别预测,候选anchors可增加对尺度变化的鲁棒性,提升小尺度区域召回;3、对候选anchor的设定增加一些可预见的scale,在商品尺寸比例比较极端的情况下大幅提升普适性;
- 分割融合模型:参考论文http://openaccess.thecvf.com/content_CVPR_2019/html/Zhang_A_Late_Fusion_CNN_for_Digital_Matting_CVPR_2019_paper.html
与传统的只需要分别前景、背景的图像分割(segmentation)问题不同,高精度抠图算法需要求出某一像素具体的透明度是多少,将一个离散的0-1分类问题变成[0, 1]之间的回归问题。
在我们的工作中,针对图像中某一个像素p,我们使用这样一个式子来进行透明度预测:
α_p=β_p F ̅_p+(1-β_p ) 〖(1-B ̅〗_p)
其中F ̅_p和B ̅_p分别代表了这个像素属于前景和背景的概率,β_p是混合权重。我们的网络可整体分为两部分,分割网络和融合网络,如下图:
分割网络:我们使用了在图像分割任务中常用的编-解码器结构作为我们的基础结构,但与传统结构不同,我们的网络中使用了双解码器分别来预测前、背景概率F ̅_p 〖和B ̅〗_p。如果像素p在图像的实心区域(透明度为0或1),我们预测像素透明度的真实值;如果p在图像的半透明区域(透明度值在0到1之间),我们预测像素透明度真实值的上下界。通过在半透明区域使用加权的交叉熵损失函数,使F ̅_p 〖和B ̅〗_p的值相应升高,即可将透明度的真实值“包裹”在〖[1-B ̅〗_p 〖,F ̅〗_p]这一区间中。
右图中红色部分即是被前背景概率包住的像素
融合网络:由数个连续卷积层构成,它负责预测混合权重β_p。注意,在图像的实心区域,像素的前背景预测往往容易满足F ̅_p 〖+B ̅〗_p=1这一条件,此时α_p对β_p求导恒为0,这一良好性质令融合网络在训练时可以自动“聚焦”于半透明区域。“
结语:
你看,经过达摩院大牛们的深耕细作,抠图这么一件复杂的事儿,就轻轻松松的解决了。除抠图之外,其他视觉AI能力都沉淀在 阿里云视觉智能开放平台(vision.aliyun.com)上,其中也不乏像支付宝,天猫,淘宝这样的巨星级应用的精品视觉AI能力,为广大用户提供好用、易用、普惠的视觉智能API服务。技术与应用相互作用,最后沉淀更替,集合在这一小小宝箱中,目前平台免费开放140+种AI能力的调用权限,别犹豫啦,快来体验吧!
钉钉扫描下方二维码,进群免费对接百种AI能力