计算机如何“看懂”图片?达摩院提出新的研究方法

简介: 计算机如何“看懂”图片?达摩院提出新的研究方法。

--------点击屏幕右侧或者屏幕底部“+订阅”,关注我,随时分享机器智能最新行业动态及技术干货------------

视觉-1.png

背景

近年来,基于深度神经网络的机器学习方法在计算机视觉上获得的巨大的成功。我们现在应用的主流的深度神经网络都基于对空间域信号的处理和分析,即图像或视频的 RGB 信号。我们知道,现有的图像视频分析系统由多个模块组成。例如,实时图像分析系统由图像获取(capture),图像压缩(compression),图像传输(transmission),图像解压缩(decompression),图像推理(inference)组成。而对于非实时的图像分析系统,这些保存在存储中的图像已经经过压缩,因此需要经过解压缩和图像推理的模块。以实时图像分析系统为例,这个系统整体的性能(包括延时,功耗,精度等)取决于其中每一个模块的性能。以往的瓶颈来自于图像推理引擎,因为其中包含了非常大规模的计算量。由于这些计算具有结构性和并行度的特征,近年来在 GPU 和人工智能专用芯片的帮助下,图像推理引擎的性能得到了极大的提升。

因此,图像压缩/解压缩在整个系统中的占比会越来越大。例如在 Figure 1 中,我们看到在一个 GPU 的系统中图像处理的时间占比已经大约为图像推理(inference)的两倍之多[1]。

这篇文章介绍图像分析系统的基本组成,以及我们如何利用频域特征来进行图像推理,从而省略频域到空间域的转换,因为这个转换是图像压缩/解压缩中计算量最大的步骤。同时我们可以在频域选择重要的信息,进一步减少系统中模块之间的数据传输量。因为模块之间的数据带宽往往远小于模块内部的数据带宽,减小模块间的数据传输量便可以提升整个系统的性能。

image.png

Figure 1. Latency breakdown in a single inference

本文的主要贡献如下:

  • 第一,我们提出了一种系统方法可以在基本不改变现有的卷积神经网络(如 ResNet,MobileNet 等)的前提下做基于频域的机器识别。
  • 第二,由于基于频域的机器识别可以在不增加计算量的前提下,接受空间域尺寸更大的图片,因此提高了图像识别的精度。
  • 第三,我们提出了一种系统方法来区分每个频域分量对于机器学习的重要性,并且发现仅有很少部分的频域分量实际上对机器学习有贡献。
  • 第四,之前基于频域的机器学习只完成了单一物体的图像分类 (single object recognition),我们首次将基于频域的机器学习扩展到了图像的物体检测(object detection)和语义/实例分割(instance segmentation)任务中,通常物体检测和语义/实例分割被定义为高级视觉(High level vision) 任务。

本文的概要如下:

  • 第一部分我们介绍了一个传统图像分析系统的基本框架,并分析的这个系统中计算量的瓶颈位置。
  • 第二部分我们介绍了在频域实现机器学习的系统方法,以及我们提出了一种基于 Gumbel softmax 开关的选择频率信息重要性的方法。
  • 第三部分我们介绍了利用我们提出的方法在频率域做图像分类(image classification)和实例分割(instancesegmentation)的结果。

1. 图像传输/存储/分析系统的基本框架

image.png

Figure 2. A framework for image transmission and analysis

Figure 2 描述了一个实时图像分析系统的框架。图像输入(In)通常是 RGB 的空间域信号,在编码端经过 RGB-to-YCbCr 的转化,离散余弦变换(DCT),量化(Quantization), 以及熵编码(Entropy coding),得到压缩后用来传输的信号。这个信号传输到解码端,经过对应的熵解码(Entropy decoding),反量化(dequantization),逆离散余弦变换(IDCT),YCbCr-to-RGB 转化得到原图像的重建图像。这个基于 RGB 空间域的重建图像作为深度神经网络的输入,经过分析可以得到所需要的结果。以下我们简要介绍以上这些操作,并分析它们的计算复杂度。

1.1 YCbCr-RGB conversion

YCbCr(有时也称 YUV)是一系列表示图像/视频的色彩空间(color space)。通常 RGB color space 中三个通道的信号强相关,同时很难说明其中哪一个通道的信号更重要。YCbCr 信号是 RGB 信号的一个点对点的可逆线性变换,其中 Y 信号表示的是亮度(luma)信息,而 Cb 和 Cr 表示的是色彩(chroma)信息(seeFigure 3)。对于人类的视觉系统,亮度信息比色彩信息更重要,因此我们可以通过不同的压缩方法来达到最佳的压缩性能。例如对 Cb 和 Cr 通道进行降采样。由于 YCbCr 和 RGB 信号的转换是 point-wise linear,所以所需的计算量相对较小。

image.png

Figure 3. Conversion from RGB to YCbCr

1.2 Discrete cosine transform(DCT) and inverse discrete cosine transform (IDCT)

离散余弦变换是一种二维的可逆线性变换,它将呈现出图像不同的频率信息。以一个 8x8 的图像为例,它的二维 DCT 信号矩阵包含了直流分量(通常是(0,0)号元素), 低频信号分量,以及高频信号分量。从 Figure 4 中可以看到,直流分量衡量了这个信号整体的幅度,而两个方向上不同的分量分别衡量了这个二维信号在x方向和y方向上不同的震荡频率。由于 DCT(以及 IDCT)是矩阵变换,而通常的图像压缩标准使用的是 8x8 的 DCT 变换,所需的计算量占据的整个压缩系统中的大部分。

image.png

Figure 4. Coefficients in a discrete cosine transform

1.3 Quantization

量化模块将信号由浮点数 floating-point 转换为整型表示。它对 DCT 变换后的对应位置的信号进行 point-wise 的量化。量化模块所需的计算量因此也相对较小,和矩阵的尺寸成正比。由于人类视觉系统对低频信号比较敏感,因此量化矩阵的左上角数字相对比较小。Figure 5 展示了一个量化矩阵的例子。由于量化的操作是不可逆的操作,因此量化模块是图像压缩传输系统中有损的操作。

image.png

Figure 5. A quantization table for JPEG

1.4 Entropy coding

传输所需的信号是一维信号,而我们经过量化的信号是二维信号,因此我们首先通过 Zig-zag 的方式将二维信号转换为一位信号(see Figure 6)。由于量化矩阵中高频信号的量化间隔较大,因此许多信号矩阵中对应高频,也就是对应一维信号中靠后位置的信号将被量化为 0 。这个一维信号经过 Run length coding [2](see Figure 7)和 Huffman coding [3](在视频压缩中会有更复杂的 Arithmetic coding [4] 以及 Context-adaptive binaryarithmetic coding [5])被压缩成为用来传输/存储的信号。 Entropy coding 基于很成熟的算法和加速结构,所需的计算量也较小,和图像矩阵的尺寸称正比。由于 Zig-zag 转换和 Entropy coding 都是可逆的,因此这个模块也是无损的。

image.png

Figure 6. A zig-zag serialization from 2D to 1D

image.png

Figure 7. An example of run-length coding

以上各个模块在解码端都可以用对应的逆模块(inverse module)来实现,同时这些逆模块的计算复杂度和编码端对应的模块基本一致。

通过以上的介绍我们可以看出,在整个图像分析系统中,除去最后的图像推理(inference)引擎,前期的压缩,传输,解压缩的瓶颈在于其中的 DCT 和 IDCT 模块,因为这两个变换是矩阵变换,而其他的操作基本都是 point-wise 的操作。我们知道矩阵变换的计算复杂度远大于点变换的计算复杂度,因此如果我们能够减少,甚至省略这两个模块,将会对图像分析系统的前半部分带来极大的性能提升。

2. 基于频域信息的机器学习

在解码端,传统的图像传输系统使用 IDCT 将频域信号转换为空间域信号的目的是为了让人类视觉系统服务的。然而,在机器学习任务中,我们可以思考是否需要做 IDCT 这个对计算量需求较大的操作。如果我们可以省略 IDCT 的模块,我们就可以减少解码端的延时和功耗(see Figure 8)。

image.png

Figure 8. A framework of image transmission and analysis directly from the frequency domain.

我们面临两个问题,第一,我们如何利用频域的信息来进行机器学习,即如何将重建出的 DCT 的信号接入合适的深度神经网络。第二,我们如何利用不同频域信号的重要性来节省从解码端到图像推理引擎所需的带宽(see Figure 9

image.png

Figure 9. A framework of image transmission and analysis from selected frequency component to reduce memory bandwidth between decoder and AI engine.

2.1 如何利用频域的信息来进行机器学习

首先考虑亮度通道(Y channel)。假设我们使用图像压缩标准中默认的 8x8 作为块的尺寸(blocksize)。对于每一个块(block),我们会得到 64 个 DCT 的信号,对应了 64 个不同的频率分量。如果我们原始的图像的尺寸是 W x H, 那么我们将会有 W/8 x H/8 个 DCT 信号组成的块。每个块中相同位置的频率分量可以组成一个尺寸为 W/8 x H/8 的特征图片(feature map),这样我们会产生 8x8=64 个 feature map。同样的对于 Cb 和 Cr 通道,我们也可以各自产生 64 个 feature map。总共产生了 64x3=192 个 feature map,这个过程如 Figure 10(a) 所示。假设 W=H=448, 那么现有的基于频域的 feature map 的尺寸为 56x56x192。现在的问题是如何将这些 feature map 合理的输入到一个已有的 DNN 网络结构中,使得 feature map 的尺寸和已有 DNN 网络的尺寸吻合。

image.png

Figure 10 (a). The data pre-processing pipeline for learning in the frequency domain

为了便于理解,我们以 ResNet-50 作为基础的图像分类举例。ResNet-50 通常接受的图片输入尺寸为 224x224 。在经过一次 convolutional layer (stride=2)pooling 之后,此时网络的 feature map 的尺寸为 56x56 ,和我们产生的频率信号的 feature map 尺寸吻合。我们可以将 192 个 56x56 的频域 feature map 全部或者部分直接接在 ResNet-50 的第一个 Residue Block 之前,从而达到不改变 ResNet-50 的结构而实现从频域做机器识别的目的。如果我们从 192 个 feature map 中选取的 64 个,则和一个标准的 ResNet-50 在这一层的 feature map 个数相同,则网络结构和 ResNet-50 达到了完全一致。这个过程如 Figure10(b) 所示。值得注意的是,由于我们做了 8x8 的 DCT 变换,我们实际输入的图片大小为 448x448,是标准 ResNet-50 输入(224 x 224)的两倍。正因为我们提高了输入图片在空间域的分辨率,我们在后续的实验中可以得到更好的识别精度。

image.png

Figure 10 (b). Connecting the pre-processed input features in the frequency domain to ResNet-50. The three input layers (the dashed gray blocks) in a vanilla ResNet-50 are removed to admit the 56×56×64 DCT inputs.

2.2. 频域信息重要性提取

图像压缩理论的基础是人眼对于不同色彩空间和频率分量有不同的敏感度,因此我们可以对 Cb,Cr 通道降采样,也可以对每个 DCT 信号中高频分量设置更大的量化区间。然而,我们对于这些频率分量对于机器学习的重要性并不了解。如果我们可以忽略掉其中不重要的 feature map,就可以不用将这部分数据从图像解码模块传输到图像推理引擎中,从而节省这部分可能成为瓶颈的带宽。

我们现在面临的问题是如何在这 192 个 feature map 中做出选择。类比人类视觉系统,在这 192 个 feature map 中,我们能否猜想Y通道和低频分量对应的 feature map 似乎更重要?如果是这样的话,我们如何 确定 Y 通道中应该选择多少个 feature map,而 CbCr 通道有应当选择多少个 feature map ?在这一部分,我们提出了利用机器学习中添加gate的方法来学习每一个 feature map 的重要性。在训练中,不仅图像推理的 DNN 中的 weights 被训练出来,同时每一个 feature map 的重要性也被确定。

image.png

FIgure 11. A gating method to select important frequency components

Figure 11 展示了利用 gate 来选择重要的 feature map 的方法。原始所有频率分量组成的 feature map 的尺寸为 WxHxC,其中 C 代表了 feature map 的个数,正如我们前面介绍的那样,在实验中使用的是 C=192 。 每个 feautre map 通过 average pooling 将会生成一个 1x1xC 的特征向量,其中每个数值代表了对应 feature map。这个特征向量通过一个 fully connected layer 生成一个 1x1xCx2 的特征向量对。每一对数字表示这个对应的 feature map 是否重要,如果 index 为 0 的数字比 index 为 1 的数字更大,那么这个 feature map 被认为不重要,整个 feature map 将会被忽略而不参与后续 DNN 的计算;反过来说,如果 index 为 1 的数字比 index 为 0 的数字更大,那么这个 feature map 被认为重要,将会参与后续 DNN 的计算。这个操作等效于使用了一个开关(gate)来控制每一个频率信息组成的 feature map 是否流通到后续的计算中。

具体而言,由于我们使用了 argmax 函数来选择更大的 index 进而表示 feature map 是否被选择参与计算,我们需要一种特殊的方法在训练中将 gradient 传播到这 C 个开关的控制网络中。这种方法名为 Gumbel-softmax [7]。

由于频率分量对应的开关被选为通过的数量决定了输入 DNN 的数据带宽,我们把选择为通过的开关的比例作为 loss function 中的一项,另一项就是对应机器学习任务中原始的 loss 。通过最小化 loss function 来实现机器学习任务精度和输入 DNN 数据带宽的平衡。

现在我们拥有了选择重要的 feature map 的方式,我们有两种方案来减少从图像解码模块到图像推理引擎的数据带宽,这两种方式我们称之为动态(Dynamic)方式和静态(Static)方式。

所谓动态方式,就是每一个频率分量的选择开关由当前输入的图像决定,这种方法可以自适应每一次图像推理(inference)的不同输入。由于选择开关的网络十分简单,我们可以将其放在图像解码模块中。这样从图像解码模块到图像推理引擎之间只需要对被选择的频率分量对应的 feature map 进行数据传输,可以极大的减少这两个模块之间的带宽需求( see 3rdrow in Figure 12)。

所谓静态方式,就是我们通过训练(training)得到最重要的一些频率分量。在做图像推理(inference)的时候,我们事先就确定只用这些事先确定好的频率分量对应的 feature map,而不会根据不同的图像进行自适应选择。这种静态方式在 inference 的时候无需选择开关的网络。这种方式不仅可以节省图像解码模块到图像推理引擎的带宽,还可以在编码模块中忽略不重要的频率分量,进而减少图像编码的计算量,延时,以及网络传输的带宽(see 4th row in Figure 12)。值得一提的是,通常网络传输的带宽远小于机器内部组件之间的带宽。

image.png

Figure 12. Comparisons of image transmission and analysis system

3. 结果展示

为了演示基于频率分量的机器学习系统和方法,我们选取了两个有代表性的机器学习任务,即图像分类(image classification)和实例分割(instancesegmentation)。

3.1 Image Classification

图像分类的任务是对给定的图像进行类别的区分。我们使用 ImageNet 作为数据集,其中包括大约 128 万张训练图像和 5 万张测试图像,总共 1000 个类别。我们使用了 ResNet-50 [8] 和 MobilenetV2 [9] 作为 DNN 的网络结构。MobilenetV2 使用了 depth-wise convolution 的方式,极大的减少了深度神经网络的计算量和网络的参数量。因此 MobilenetV2 有很大的潜力作为移动端图像推理引擎。

经过我们的训练,我们得到了一张不同频率分量重要性的 Heat mapFigure 13 描述了对应 192 个频率分量的重要性程度。我们可以看出,和我们直觉一致的是,Y 通道的重要性高于 Cb 和 Cr 通道,同时低频分量的重要性高于高频分量。利用我们提出的 gated 方法,我们可以通过一次训练就了解该如何分配带宽资源。以 Figure 13 为例,我们可以使用 14 个 Y 通道,5个 Cb 通道 5 个 Cr 通道,共计 24 个 feature map 来做图像分类的任务,而不用将最初的 192 个 feature map 的数据都从图像解码模块传输到图像推理引擎中。这样我们的传输带宽需求降低为原来的八分之一,而推理的精度(accuracy)反而从标准 ResNet-50 的 75.78% 提升至 77.196% (see DCT-24 in Table 14 (a))。

同样的,在 MobileNetV2 的实验中,我们通过选取最重要的 24 个频率分量,得到的识别精度从标准 MobileNetV2 的 71.702% 提升至 72.364% (see DCT-24 in Table 14(b) )。其它的结果,例如选取 64,48,12,6 个频率分量的精度也展现在 Table14 中。值得一提的是,根据 Figure 13 的展示,我们发现低频分量在识别中相对重要,因此我们也尝试了使用 heuristic 的方式,选取了一个上三角的区域。

例如对于 DCT-24 ,我们直觉选取的是 Y channel 的 [0-13] ,Cb 和 Cr channel 的 [0-4] 编号的频率分量。这些频率分量和 Figure 13 中的 heatmap 略有不同,但是识别的精度几乎没有区别 (See DCT-64T, DCT-48T, and DCT-24T in Table 14(a) )。这说明我们并不需要对于每个不同的任务都尝试首先获得 heatmap,然后严格的按照 heatmap 来选取频率分量。我们直观上可以选择低频分量(例如这些上三角得到区域),达到和严格按照 heatmap 选择相同的精度。

image.png

Figure 13. A heat map of different frequency components being used in image classification tasks (a) and instance segmentation tasks (b)

**image.png
**

(a)

image.png

(b)

Table 14. Accuracy comparison for image classification from RGB and DCT domain using ResNet-50 (a) and MobileNetV2 (b)

3.2 Instance segmentation

实例分割(instance segmentation)结合了物体检测(object detection) 和语义分割(semanticsegmentation)的需求,它的任务是检测出图像中的每个物体对应的像素点,同时将每一个检测出的物体分类。如 Figure 15 所示,实例分割任务需要检测出物体(例如,人,足球)的 boundingbox ,还需要在这个 bounding box 中将属于该物体的像素标注出来。

image.png

Figure 15. An example of instance segmentation (from selected frequency domain)

我们使用了 COCO 的数据集,其中包含了约 10 万张训练图像和 5 千张测试图像。我们使用了 Mask RCNN [10] 作为深度神经网络结构。Mask RCNN 首先会检测出物体的 bounding box,然后在 bounding box 内部的每个像素做二分,确定其是否属于该物体。

Table 16 展示了我们在 DCT 频域做物体识别和实例分割的精度对比。可以看到,从频域做这两个任务,我们可以提升大约 0.8% 的精度( 37.3% 到 38.1% 以及
34.2% 到 35.0% )。

image.png

(a)

image.png

(b)

Table 16. Accuracy comparison from RGB and DCT domain on object detection (a) and instance segmentation (b)

以下是另外几个利用在频域选择重要的 feature map 做实例分割的 visual demo

image.png

image.png

image.png

image.png

4. 未完成的工作以及思考

(1) Figure 12 展示了 Dynamic 和 Static 两种选取频率分量 feature map 的方式,现阶段我们使用的是 dynamic 的方式,主要考虑的因素是 static 的方式需要对压缩编码端进行修改才能实现编码端的性能提升和信道带宽节省。这部分改变将会需要视频获取设备的改动,而这通常不是我们集团可以控制的部分。我们相信作为这个方向有很大的研究价值,它可以对图像编码标准进行优化。

(2)现有的实验均基于图像的压缩传输系统。下一步我们的目标是对视频压缩系统做类似的尝试。由于视频压缩标准中包含了帧间运动预测/补偿和帧内预测,对应的频域信息也会有比较大的差别。

(3)通过我们利用频域信息来做机器学习的研究,我们的思考是:机器学习的目标和人眼观测图像/视频的方式不同,什么样的信息才是对于机器学习更友好,更有用的信息呢?传统的机器学习算法的输入都是空间域的RGB图像,然而我们是否可以设计更适合机器学习的特征来过滤掉空间域冗余的信息,从而真正做到节省解码端到推理引擎间的数据带宽。

Acknowledgement

本文的工作基于实习生Kai Xu在阿里巴巴达摩院实习期间的研究以及和Prof. Fengbo Ren (Arizona State University)的合作。在这个工作中,我们十分感谢来自于计算技术实验室其他同学许多重要的建议和意见。

image.png

原文链接:
https://mp.weixin.qq.com/s/aYCbhuGr-__af0LwEdoi5w

目录
相关文章
|
8月前
|
机器学习/深度学习 人工智能 算法
“探秘神经算法:如何用人工智能模拟大脑处理信息“
“探秘神经算法:如何用人工智能模拟大脑处理信息“
42 0
|
6天前
|
机器学习/深度学习 算法 计算机视觉
计算机视觉是一门研究如何使计算机“看”的技术,其目标是让计算机能够像人类视觉一样理解和解释视觉信息。
计算机视觉是一门研究如何使计算机“看”的技术,其目标是让计算机能够像人类视觉一样理解和解释视觉信息。
|
28天前
|
机器学习/深度学习 数据挖掘
西浦、利物浦大学提出:点云数据增强首个全面综述
【5月更文挑战第26天】西交利物浦大学和利物浦大学的研究团队发表了一篇关于点云数据增强的首部全面综述,分析了点云增强技术在缓解深度学习模型过拟合问题上的作用。研究将方法分为基本(如仿射变换、随机丢弃)和高级(混合、对抗性变形)两类,并探讨了各类方法的优缺点及应用场景。尽管基本方法常用,但自动优化组合和参数、多模态增强及性能评估标准仍是挑战。该综述为研究者提供了理解与应用点云增强的指导,但也指出在某些领域的深入探讨尚不足。[arXiv:2308.12113]
38 1
|
1月前
|
机器学习/深度学习 人工智能 算法
AI作画原理及相关理论解析
本文探讨了AI作画,特别是深度学习技术如何驱动这一艺术形式的发展。AI作画基于卷积神经网络(CNN),通过学习艺术作品风格和内容生成新作品。流程包括数据收集、模型训练、风格迁移和后处理。文章介绍了风格迁移理论,包括内容损失和风格损失,以及生成对抗网络(GAN)的基本概念。提供的代码示例展示了使用TensorFlow和Keras实现风格迁移的简化过程。为了优化结果,可以调整优化器、权重参数、模型选择及图像处理技术。
|
1月前
|
机器学习/深度学习 人工智能 知识图谱
LeCun视觉世界模型论文,揭示AI学习物理世界的关键
【2月更文挑战第16天】LeCun视觉世界模型论文,揭示AI学习物理世界的关键
30 2
LeCun视觉世界模型论文,揭示AI学习物理世界的关键
|
1月前
|
人工智能 自然语言处理 自动驾驶
大模型领域急需建立可解释AI理论
【1月更文挑战第21天】大模型领域急需建立可解释AI理论
35 2
大模型领域急需建立可解释AI理论
|
10月前
|
机器学习/深度学习 算法
谷歌大脑阿尔伯塔联合发表:离线强化学习的优化视角【附代码】
谷歌大脑阿尔伯塔联合发表:离线强化学习的优化视角【附代码】
|
机器学习/深度学习 人工智能 编解码
逐步揭开模型面纱!首篇深度视觉建模中的可解释AI综述
深度视觉模型在高风险领域有着广泛的应用。因此它们的黑匣子性质目前吸引了研究界的极大兴趣。论文在《可解释的人工智能》中进行了第一次调查,重点是解释深度视觉模型的方法和指标。涵盖了最新技术的里程碑式贡献,论文不仅提供了现有技术的分类组织,还挖掘了一系列评估指标,并将其作为模型解释的不同特性的衡量标准进行整理。在深入讨论当前趋势的同时,论文还讨论了这一研究方向的挑战和未来途径。
逐步揭开模型面纱!首篇深度视觉建模中的可解释AI综述
|
人工智能 编解码 自然语言处理
搞多模态不了解最新进展?中科院自动化所撰文首个视觉-语言预训练综述
搞多模态不了解最新进展?中科院自动化所撰文首个视觉-语言预训练综述
144 0
|
机器学习/深度学习 人工智能 算法
腾讯AI Lab公布首项研究:提出独特神经网络实现实时视频风格变换
风格变换一直是机器学习领域内的一项重要任务,很多研究机构和研究者都在努力打造速度更快、计算成本更低的风格变换机器学习系统,比如《怎么让你的照片带上艺术大师风格?李飞飞团队开源快速神经网络风格迁移代码》、《谷歌增强型风格迁移新算法:实现基于单个网络的多种风格实时迁移》。如今新成立的腾讯 AI Lab 也加入了此行列,在此文章中机器之心对腾讯 AI Lab 的视频风格变换的研究进行了独家报道。
234 0
腾讯AI Lab公布首项研究:提出独特神经网络实现实时视频风格变换