学习的最大理由是想摆脱平庸,早一天就多一份人生的精彩;迟一天就多一天平庸的困扰。 热爱写作,愿意让自己成
为更好的人............
👉引言💎
铭记于心 | ||
🎉✨🎉我唯一知道的,便是我一无所知🎉✨🎉 |
【深度学习实践(七)】卷积神经网络(Xception)之动物识别
1 卷积神经网络
CNN由纽约大学的Yann Lecun于1998年提出,其本质是一个多层感知机,成功的原因在于其所采用的局部连接和权值共享的方式,同时一种带有卷积结构的深度神经网络,卷积结构可以减少深层网络占用的内存量,其三个关键的操作,其一是局部感受野,其二是权值共享,其三是pooling层,有效的减少了网络的参数个数,缓解了模型的过拟合问题
- 一方面减少了权值的数量使得网络易于优化
- 另一方面降低了模型的复杂度,也就是减小了过拟合的风险
该优点在网络的输入是图像时表现的更为明显,使得图像可以直接作为网络的输入,避免了传统识别算法中复杂的特征提取和数据重建的过程,在二维图像的处理过程中有很大的优势,如网络能够自行抽取图像的特征包括颜色、纹理、形状及图像的拓扑结构,在处理二维图像的问题上,特别是识别位移、缩放及其他形式扭曲不变性的应用上具有良好的鲁棒性和运算效率等
2 模型训练
1 设置GPU
- GPU能够为大量数据的运算提供算力支持
from tensorflow.python.keras.applications.vgg16 import VGG16, preprocess_input, decode_predictions from tensorflow.python.keras.preprocessing.image import load_img, img_to_array gpus = tf.config.list_physical_devices("GPU") if gpus: gpu0 = gpus[0] #如果有多个GPU,仅使用第0个GPU tf.config.experimental.set_memory_growth(gpu0, True) #设置GPU显存用量按需使用 tf.config.set_visible_devices([gpu0],"GPU") warnings.filterwarnings("ignore") plt.rcParams['font.sans-serif'] = ['SimHei'] plt.rcParams['axes.unicode_minus'] = False
2 加载训练集
- 读取数据集(训练集为验证码图片,都放在本地目录中,所以首先加载本地目录;为了检验是否读取成功,用matplotlib库显示图片),并将数据可视化
model = VGG16() # !!!记得修改图片路径 image = load_img("./image/i5.jpg", target_size=(224, 224)) image = img_to_array(image)
3 数据预处理
- 这一步主要是通过TensorFlow深度学习框架的preprocessing方法进行数据的标准化,加载到数据集中
- 将加载到内存的验证码图片训练集进行数据清洗,包括对无效图片,NULL值,图片大小统一的处理等等,下面封装,可以使过程更加简便,可以使过程更加简便
# 输入卷积中需要4维结构 image = image.reshape((1, image.shape[0], image.shape[1], image.shape[2])) print("形状:", image.shape) # 预测之前做图片的数据处理,归一化处理等 image = preprocess_input(image) y_predictions = model.predict(image)
4 构建模型
下面就是比较重要的一步,构建模型
- 为了使训练的过程更加简便,所以可以使用prefetch函数:该函数的主要作用是 同时执行训练步骤的数据预处理阶段以及执行阶段,同时利用CPU与加速器,避免了传统训练过程中的“串行”思想(使用CPU进行数据预处理的时候加速器空闲,使用加速器进行模型训练的时候GPU空闲),缩短提取和转换数据所需的时间,使模型训练的效率大大提高
- cache( ):将数据集以缓存的形式加载到内存中,以实现加速运行的目的
- shuffle():将数据集打乱,增加随机性来使模型更具有普遍性
# 对结果进行解码,按照降序排序结果 label = decode_predictions(y_predictions) print("预测的类别是:%s, 其概率为:%f" % (label[0][0][1], label[0][0][2]))
- 编译与训练
- 将指数衰减学习率送入优化器
- 指标评估
🌹写在最后💖: 路漫漫其修远兮,吾将上下而求索!伙伴们,再见!🌹🌹🌹