基于卷积神经网络的品牌LOGO识别原理与代码

简介: 人工智能之父John McCarthy将AI视为科学和工程的结合,而机器学习是AI已经实现的部分,利用机器学习技术,计算机能够通过体验(数据)来像人类一样学习,而不需要被显式地编程。这篇文章将详细介绍我们在大作业项目如何使用Python的Keras深度学习框架,实现一个卷积神经网络(Convolutional Neural Network)来识别图像中的店铺LOGO/招牌。

人工智能之父John McCarthy将AI视为科学和工程的结合,而机器学习是AI已经实现的部分,利用机器学习技术,计算机能够通过体验(数据)来像人类一样学习,而不需要被显式地编程。这篇文章将详细介绍我们在大作业项目如何使用Python的Keras深度学习框架,实现一个卷积神经网络(Convolutional Neural Network)来识别图像中的店铺LOGO/招牌。

在这里插入图片描述
随着越来越多的数据可用,机器学习现在已经广泛地应用于各个领域,例如个性化的视频推荐、医疗搜索中的图像和语音识别、欺诈识别、股票市场分析、自动驾驶车辆等等。我们对于识别图像中的店铺招牌有兴趣的原因之一,在于后续我们将基于这一技术实现对twitter微博的情感分析。

要快速掌握机器学习应用的开发,推荐汇智网的机器学习系列教程

1、数据集选择与预处理

任何机器学习项目的第一步,都是找到有趣的数据集。鉴于我们稍后希望将这一技术应用到twitter微博中的任意图像以分类标牌,因此我们使用了Wild数据集,其中包含11052个包含大标牌的图像。不过我们没有直接从官网下载这个数据集,而是从QMUL-OpenLogo数据集中提取了9428个图像。首先我们载入图像,然后使用文件夹名称标记图像中LOGO的目标分类:

from sklearn.datasets import load_files       
from keras.utils import np_utils
import numpy 

#load files from LogosInTheWild directory with logo categories given by their subfolder name
data = load_files('LogosInTheWild-v2/data/voc_format')
logo_files = numpy.array(data['filenames'])
jpg_indices = [index for index, name in enumerate(logo_files) if 'jpg'==name.split('.')[-1]]
logo_targets = np_utils.to_categorical(numpy.array(data['target']), max(data['target']+1))
all_files, all_targets = logo_files[jpg_indices], logo_targets[jpg_indices]

在训练的每一步,使用单独的验证数据集对结果参数进行验证是很有意义的。我们定义了一个检查点来将验证集上获得的最优权重参数保存下来。最终,在完成训练之后我们将使用另一个单独的数据集来测试我们的机器学习算法:测试数据集。因此我们将图像数据集拆分为三部分:训练集、验证集和测试集,然后定义如下的检查点:

from sklearn.model_selection import train_test_split

#split into 80% training+validation files+labels, and 20 % test files+labels
train_and_val_files, test_files, train_and_val_targets, test_targets 
            = train_test_split(all_files, all_targets, test_size=0.2)
#further split into 80% training files+labels, and 20 % validation files+labels
train_files, val_files, train_targets, val_targets 
            = train_test_split(train_and_val_files, train_and_val_targets, test_size=0.2)
        
#create a checkpointer to save the CNN model with the best weight parameters
from keras.callbacks import ModelCheckpoint  
checkpointer = ModelCheckpoint(filepath='saved_models/weights.best.from_scratch.hdf5', 
                               save_best_only=True)

作为预处理的最后一步,我们将每个图像转换为224 X 224 像素和RGB三个通道,以便将数据转换为Keras的卷积神经网络需要的格式:6033个训练样本、1509个验证样本、1886个测试样本,三个数据集的形状均为:(样本数,224,224,3):

from keras.preprocessing import image                  
from PIL import ImageFile                            
ImageFile.LOAD_TRUNCATED_IMAGES = True   

def path_to_tensor(img_path):
    # loads RGB image as PIL format with 224x224 pixels
    img = image.load_img(img_path, target_size=(224, 224))
    # convert to 3D tensor with shape (224, 224, 3) with 3 RGB channels
    x = image.img_to_array(img)
    # convert 3D tensor to 4D tensor with shape (1, 224, 224, 3) and return it
    return numpy.expand_dims(x, axis=0)

def paths_to_tensor(img_paths):
    list_of_tensors = [path_to_tensor(img_path) for img_path in img_paths]
    #stack the (1,224,224,3) 4D tensor arrays to a (# images,224,224,3) 4D tensor
    return numpy.vstack(list_of_tensors)

#create 4D tensors and rescale each pixel by dividing by RGB max value 255
train_tensors = paths_to_tensor(train_files).astype('float32')/255
val_tensors = paths_to_tensor(val_files).astype('float32')/255
test_tensors = paths_to_tensor(test_files).astype('float32')/255

2、CNN识别店铺LOG的原理

在第二步,我们来决定要用的机器学习算法。CNN是通常用于图像分析的一种特殊设计的神经网络,让我们先看一个简单的神经网络:

在这里插入图片描述
简单地说,神经网络是一个包含输入层、隐层和输出层的图,节点彼此相连。在这里我们的输入是数据的特征,例如图像中每个像素的RGB值。输出节点对应数据集中的可能的LOGO分类。不同节点之间的连接有不同的权重,这对应不同的重要性。任何节点的输出都要使用一个激活函数来处理加权的输入和,就像下面这样:

在这里插入图片描述

在隐层我们将使用ReLU激活函数,在输出层将使用Softmax激活函数以便将每个输出节点的值转换到[0,1]区间来获取其概率。当训练神经网络的时候,计算机将不断地优化神经网络中各连接的权重,以推动网络的输出尽可能接近其真实分类。

当分析图像的时候,经典的神经网络中的参数数量巨大:如果图像大小为224X224像素,并且我们使用3个RGB值来记录每个像素时,那么我们将需要224X224X3=150528个输入节点,由于整个网络是全连接的,我们不得不优化数量巨大的连接权重。并且,由于输入节点被排列为一维向量,神经网络也无法获知图像的任何局部模式。这些问题促成了卷积神经网络的诞生:

在我们的示例中,输入节点排列为4X4矩阵,然后我们为4个输入区域定义3个2X2的滤波器,每个区域只连接到隐层对应的3色节点。注意现在3个滤波器定义了3个特征图,每个图用来检测四个区域中的垂直、水平或对角线之类的特征。在我们的案例中,就是检测出星巴克、汉堡王或者Telekom的LOGO。

对于3个滤波器而言,由于输入层到卷积层的连接权重参数,因此我们只有2X2X3=12个权重参数需要优化。当然,在全连接的输出层还有12X9=108个权重参数需要优化。

考虑到我们要识别图像中的小LOGO,CNN的另一个优势就是其具有位移不变性,也就是说,CNN可以识别出图像中任何区域的LOGO。

3、训练Keras卷积神经网络LOGO识别器

我们已经可以开始从零定义我们的卷积神经网络架构了。为此,在上面的卷积层之后,我们也利用了池化层。池化层有两种常见的类型,都可以缩减特征图的维度:最大值池化和全局平均池化。

在这里插入图片描述
最大值池化层将特征图中的池化窗口映射为最大值。例如,两个特征图的绿色的2X2池化窗口(左侧)分别映射到最大值0.6和0.7(右侧),容易理解,现在特征图的维度减少到2了。

类似的,一个全局平均池化层将每个特征图映射为其节点的平均值。例如,蓝色特征图的平均值是
-0.1–0.2–0.4–0.1 = - 0.2,可以看到结果特征图中只包含一个节点,因此全局平均池化层可以显著降低特征图的维度。

在这里插入图片描述
现在我们可以定义CNN的架构:

from keras.layers import Conv2D, MaxPooling2D, GlobalAveragePooling2D, Dropout, Dense
from keras.models import Sequential

cnn_model = Sequential()

#after the input layer, add the first convolutional layer with 32 2x2-filters 
cnn_model.add(Conv2D (kernel_size = (2,2), filters = 32, 
                      input_shape=train_tensors.shape[1:], activation='relu'))
#add a max pooling layer with a 2x2 pooling window
cnn_model.add(MaxPooling2D(pool_size=2))
#add the second convolutional layer with 64 2x2-filters 
cnn_model.add(Conv2D(kernel_size = 2, filters = 64, activation='relu'))
cnn_model.add(MaxPooling2D(pool_size=2))
#add the third convolutional layer with 128 2x2-filters 
cnn_model.add(Conv2D(kernel_size = 2, filters = 128, activation='relu'))
#add a dropout layer so that each node has a chance of 20% to be dropped when training
cnn_model.add(Dropout(0.2))
cnn_model.add(MaxPooling2D(pool_size = 2))
#add a global average pooling layer
cnn_model.add(GlobalAveragePooling2D())
#add the final fully connected output layer with 109 node for all 109 logo classes
cnn_model.add(Dense(109, activation = 'softmax'))

cnn_model.summary()

最终,我们可以训练CNN模型了。我们选择Adam优化算法,采用交叉熵作为损失函数,使用标准的
衡量指标 准确度 = 正确预测数量 / 所有预测数量

#Compile the model 
cnn_model.compile(optimizer='adam', loss='categorical_crossentropy', metrics=['accuracy'])

#Train the model
H = cnn_model.fit(train_tensors, train_targets, epochs=100, verbose=1  
                  validation_data=(val_tensors, val_targets), callbacks=[checkpointer])

#After training, load the model with the best validation loss
cnn_model.load_weights('saved_keras_models/weights.best.CNN.hdf5')

4、模型评估

完成训练之后,我们使用Python的Matplotlib库来绘制训练过程中记录的衡量指标。容易注意到在训练集上得到的模型准确度在每个epoch之后保持提升,但是在验证集上得到的模型准确度则徘徊在30%附近:

在这里插入图片描述

虽然我们在卷积层之后已经增加Dropout层,但模型看起来还是过拟合了,也就是说我们的模型
记住了训练数据,以至于对验证集上没有看到过的数据,效果并不好。

收集更多的训练数据,或者进一步调整学习率、激活函数、节点数量、滤波器数量等架构参数应该
会有一定的作用。但是我们这个项目始终没有获得更好的结果,因此考虑到篇幅问题,我们略去
参数细调部分的说明。

最终,使用cnn_model.evaluate(test_tensors, test_targets, verbose=0),我们的CNN模型在测试集上达到了31.60%的准确率。

5、使用训练好的模型预测LOGO分类

成功训练好我们的CNN模型后,就可以使用Keras的predict_classes函数预测店铺LOGO的分类了:

在这里插入图片描述


原文链接:店铺LOGO识别 — 汇智网

目录
相关文章
|
6天前
|
存储 算法 Windows
课程视频|R语言bnlearn包:贝叶斯网络的构造及参数学习的原理和实例(下)
课程视频|R语言bnlearn包:贝叶斯网络的构造及参数学习的原理和实例
13 0
|
6天前
|
算法 数据可视化 数据挖掘
课程视频|R语言bnlearn包:贝叶斯网络的构造及参数学习的原理和实例(上)
课程视频|R语言bnlearn包:贝叶斯网络的构造及参数学习的原理和实例
17 0
|
1天前
|
机器学习/深度学习 并行计算 测试技术
BiTCN:基于卷积网络的多元时间序列预测
该文探讨了时间序列预测中模型架构的选择,指出尽管MLP和Transformer模型常见,但CNN在预测领域的应用较少。BiTCN是一种利用两个时间卷积网络来编码历史和未来协变量的模型,提出于《Parameter-efficient deep probabilistic forecasting》(2023年3月)。它包含多个由扩张卷积、GELU激活函数、dropout和全连接层组成的临时块,有效地处理序列数据。实验表明,BiTCN在具有外生特征的预测任务中表现优于N-HiTS和PatchTST。BiTCN的效率和性能展示了CNN在时间序列预测中的潜力。
10 1
|
2天前
|
机器学习/深度学习 人工智能 算法
【AI 初识】什么是卷积神经网络 (CNN)?
【5月更文挑战第2天】【AI 初识】什么是卷积神经网络 (CNN)?
|
3天前
|
机器学习/深度学习 自然语言处理 搜索推荐
|
5天前
|
机器学习/深度学习 PyTorch TensorFlow
【Python机器学习专栏】卷积神经网络(CNN)的原理与应用
【4月更文挑战第30天】本文介绍了卷积神经网络(CNN)的基本原理和结构组成,包括卷积层、激活函数、池化层和全连接层。CNN在图像识别等领域表现出色,其层次结构能逐步提取特征。在Python中,可利用TensorFlow或PyTorch构建CNN模型,示例代码展示了使用TensorFlow Keras API创建简单CNN的过程。CNN作为强大深度学习模型,未来仍有广阔发展空间。
|
5天前
|
安全 网络协议 算法
【计算机网络】http协议的原理与应用,https是如何保证安全传输的
【计算机网络】http协议的原理与应用,https是如何保证安全传输的
|
6天前
|
前端开发 数据挖掘 数据建模
课程视频|R语言bnlearn包:贝叶斯网络的构造及参数学习的原理和实例(中)
课程视频|R语言bnlearn包:贝叶斯网络的构造及参数学习的原理和实例
18 0
|
27天前
|
机器学习/深度学习 数据可视化 算法框架/工具
深度学习第3天:CNN卷积神经网络
深度学习第3天:CNN卷积神经网络
35 0
|
12天前
|
机器学习/深度学习 TensorFlow 算法框架/工具
PYTHON TENSORFLOW 2二维卷积神经网络CNN对图像物体识别混淆矩阵评估|数据分享
PYTHON TENSORFLOW 2二维卷积神经网络CNN对图像物体识别混淆矩阵评估|数据分享
38 7