深度学习-[数据集+完整代码]基于卷积神经网络的缺陷检测

简介: 深度学习-[数据集+完整代码]基于卷积神经网络的缺陷检测

卷积神经网络(Convolutional Neural Networks, CNN)是一种包含卷积计算且具有深度结构的前馈神经网络,是深度学习(deep learning)的代表算法之一。以下是对卷积神经网络的详细介绍:

一、起源与发展

  • 起源:卷积神经网络的研究始于二十世纪80至90年代,时间延迟网络和LeNet-5是最早出现的卷积神经网络。
  • 发展:随着深度学习理论的提出和数值计算设备的改进,卷积神经网络在二十一世纪后得到了快速发展,尤其在计算机视觉、自然语言处理等领域展现出强大的能力。

二、基本结构与工作原理

  • 结构:卷积神经网络主要由卷积层、池化层和全连接层组成。其中,卷积层用于提取图像的特征,池化层用于压缩特征图的大小以减少计算量,全连接层则用于对特征进行分类。
  • 工作原理:卷积层使用卷积核对输入的图像进行卷积运算,以提取图像的局部特征。池化层通过对特征图进行最大池化或平均池化等操作来减小特征图的尺寸,降低计算复杂度。最后,全连接层将提取的特征进行分类。

三、特点与优势

  • 局部连接与权值共享:卷积神经网络采用局部连接和权值共享的方式,大大减少了权值的数量,使得网络易于优化,同时降低了模型的复杂度,减小了过拟合的风险。
  • 平移不变性:由于卷积核在图像上的滑动操作,卷积神经网络具有平移不变性,即对于图像中的物体,无论其出现在哪个位置,都能被有效地识别和分类。
  • 强大的表征学习能力:卷积神经网络能够自动地学习图像中的有用特征,从而实现对图像、视频、文本等数据的识别、分类和预测任务。

四、应用领域

  • 计算机视觉:卷积神经网络在计算机视觉领域具有广泛的应用,如图像分类、目标检测、图像分割等。
  • 自然语言处理:在自然语言处理领域,卷积神经网络也被用于文本分类、情感分析等任务。
  • 医学领域:卷积神经网络在医学影像分析、疾病诊断等方面也表现出强大的能力。

五、未来展望

  • 随着硬件技术的不断进步和深度学习理论的不断完善,卷积神经网络的规模和深度将进一步增加,处理能力也将更加强大。
  • 更多的融合模型将出现,如将卷积神经网络与循环神经网络、生成对抗网络等其他深度学习模型相结合,以实现对更复杂任务的处理。
  • 在机器视觉、智能安防、自动驾驶等领域,卷积神经网络将发挥更加重要的作用,为人们的生活带来更多便利和安全。

案例代码实现:

数据集训练代码及结果:

import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
import pathlib
import keras
from keras.layers import Dense,Flatten,Conv2D,MaxPool2D
 
#解决中文显示问题
plt.rcParams['font.sans-serif'] = ['SimHei']
plt.rcParams['axes.unicode_minus'] = False
 
#读取训练集数据
data_train = "./data/train"
data_train = pathlib.Path(data_train)
 
#读取测试集数据
data_val = "./data/val"
data_val = pathlib.Path(data_val)
 
#将数据类别放在列表数据中
CLASS_NAMES = np.array(['Cr','In','Pa','PS','Rs','Sc'])
 
#设置图片大小和批次数
BATCH_SIZE = 64
IMG_HEIGHT = 32
IMG_WIDTH = 32
 
#对数据进行归一化处理
image_gengerator = keras.preprocessing.image.ImageDataGenerator(rescale=1.0/255)
 
#训练集生成器
train_data_gen = image_gengerator.flow_from_directory(directory=str(data_train),
                                                     batch_size=BATCH_SIZE,
                                                     shuffle=True, #打乱图片
                                                     target_size=(IMG_HEIGHT,IMG_WIDTH))
 
#验证集生成器
val_data_gen = image_gengerator.flow_from_directory(directory=str(data_train),
                                                     batch_size=BATCH_SIZE,
                                                     shuffle=True, #打乱图片
                                                     target_size=(IMG_HEIGHT,IMG_WIDTH))
 
#利用keras搭建神经网络模型
model = keras.Sequential() #keras.Sequential() 是 Keras(一个流行的深度学习框架)中的一个函数,用于实例化一个线性堆叠的层次模型。这个模型是一个顺序模型,允许我们将一层层地添加到模型中。
# 第一层卷积层
model.add(Conv2D(filters=6,kernel_size=5,input_shape=(32,32,3),activation='relu')) #filters 卷积核的数量 kernel_size指定卷积核的大小5*5 input_shape 设定图像大小和通道数3
# 第一层池化层
model.add(MaxPool2D(pool_size=(2,2),strides=(2,2))) #pool_size 这指定了池化窗口的大小  strides:这指定了池化操作的步长
# 第二层卷积层
model.add(Conv2D(filters=16,kernel_size=5,activation='relu')) #filters 卷积核的数量 kernel_size指定卷积核的大小5*5 input_shape 设定图像大小和通道数3
# 第二层池化层
model.add(MaxPool2D(pool_size=(2,2),strides=(2,2))) #pool_size 这指定了池化窗口的大小  strides:这指定了池化操作的步长
# 第三层卷积层
model.add(Conv2D(filters=120,kernel_size=5,input_shape=(32,32,3),activation='relu')) #filters 卷积核的数量 kernel_size指定卷积核的大小5*5 input_shape 设定图像大小和通道数3
 
model.add(Flatten())
model.add(Dense(84,activation='relu'))  #添加一个84个神经元的全连接层
model.add(Dense(6,activation='softmax'))
#编译卷积神经网络
model.compile(loss='binary_crossentropy',optimizer='Adam',metrics=['accuracy'])
 
#传入数据集进行训练
history = model.fit(train_data_gen,validation_data=val_data_gen,epochs=50)
#保存训练好的模型
model.save('model.h5')
 
 
# 绘制训练集和验证集的loss值对比
plt.plot(history.history['loss'], label='train')
plt.plot(history.history['val_loss'], label='val')
plt.title("CNN神经网络loss值图")
plt.legend()
plt.show()
 
 
# 绘制训练集和验证集的准确率的对比图
plt.plot(history.history['accuracy'], label='train')
plt.plot(history.history['val_accuracy'], label='val')
plt.title("CNN神经网络accuracy值图")
plt.legend()
plt.show()

训练结果的损失值和精确度图形展示:

测试集数据测试:

import numpy as np
import tensorflow as tf
from keras.models import load_model
import cv2
 
# 给数据类别放置到列表数据中
CLASS_NAMES = np.array(['Cr', 'In', 'Pa', 'PS', 'Rs', 'Sc'])
 
 
# 设置图片大小
IMG_HEIGHT = 32
IM_WIDTH = 32
 
# 加载模型
model = load_model("model.h5")
 
# 数据读取与预处理
src = cv2.imread("data/val/Cr/Cr_48.bmp")
src = cv2.resize(src, (32, 32))
src = src.astype("int32")
src = src / 255
 
# 扩充数据的维度
test_img = tf.expand_dims(src, 0)
# print(test_img.shape)
 
preds = model.predict(test_img)
#print(preds)
score = preds[0]
# print(score)
 
print('模型预测的结果为{}, 概率为{}'.format(CLASS_NAMES[np.argmax(score)], np.max(score)))

六,相关作品展示

基于Java开发、Python开发、PHP开发、C#开发等相关语言开发的实战项目

基于Nodejs、Vue等前端技术开发的前端实战项目

基于微信小程序和安卓APP应用开发的相关作品

基于51单片机等嵌入式物联网开发应用

基于各类算法实现的AI智能应用

基于大数据实现的各类数据管理和推荐系统

相关文章
|
2月前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于GRU网络的MQAM调制信号检测算法matlab仿真,对比LSTM
本研究基于MATLAB 2022a,使用GRU网络对QAM调制信号进行检测。QAM是一种高效调制技术,广泛应用于现代通信系统。传统方法在复杂环境下性能下降,而GRU通过门控机制有效提取时间序列特征,实现16QAM、32QAM、64QAM、128QAM的准确检测。仿真结果显示,GRU在低SNR下表现优异,且训练速度快,参数少。核心程序包括模型预测、误检率和漏检率计算,并绘制准确率图。
109 65
基于GRU网络的MQAM调制信号检测算法matlab仿真,对比LSTM
|
9天前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于GA遗传优化TCN-GRU时间卷积神经网络时间序列预测算法matlab仿真
本项目基于MATLAB2022a开发,提供无水印算法运行效果预览及核心程序(含详细中文注释与操作视频)。通过结合时间卷积神经网络(TCN)和遗传算法(GA),实现复杂非线性时间序列的高精度预测。TCN利用因果卷积层与残差连接提取时间特征,GA优化超参数(如卷积核大小、层数等),显著提升模型性能。项目涵盖理论概述、程序代码及完整实现流程,适用于金融、气象、工业等领域的时间序列预测任务。
|
20天前
|
机器学习/深度学习 算法 JavaScript
基于GA遗传优化TCN时间卷积神经网络时间序列预测算法matlab仿真
本内容介绍了一种基于遗传算法优化的时间卷积神经网络(TCN)用于时间序列预测的方法。算法运行于 Matlab2022a,完整程序无水印,附带核心代码、中文注释及操作视频。TCN通过因果卷积层与残差连接学习时间序列复杂特征,但其性能依赖超参数设置。遗传算法通过对种群迭代优化,确定最佳超参数组合,提升预测精度。此方法适用于金融、气象等领域,实现更准确可靠的未来趋势预测。
|
1月前
|
机器学习/深度学习 人工智能 算法
基于Python深度学习的【害虫识别】系统~卷积神经网络+TensorFlow+图像识别+人工智能
害虫识别系统,本系统使用Python作为主要开发语言,基于TensorFlow搭建卷积神经网络算法,并收集了12种常见的害虫种类数据集【"蚂蚁(ants)", "蜜蜂(bees)", "甲虫(beetle)", "毛虫(catterpillar)", "蚯蚓(earthworms)", "蜚蠊(earwig)", "蚱蜢(grasshopper)", "飞蛾(moth)", "鼻涕虫(slug)", "蜗牛(snail)", "黄蜂(wasp)", "象鼻虫(weevil)"】 再使用通过搭建的算法模型对数据集进行训练得到一个识别精度较高的模型,然后保存为为本地h5格式文件。最后使用Djan
128 1
基于Python深度学习的【害虫识别】系统~卷积神经网络+TensorFlow+图像识别+人工智能
|
1月前
|
机器学习/深度学习 存储 算法
基于MobileNet深度学习网络的活体人脸识别检测算法matlab仿真
本内容主要介绍一种基于MobileNet深度学习网络的活体人脸识别检测技术及MQAM调制类型识别方法。完整程序运行效果无水印,需使用Matlab2022a版本。核心代码包含详细中文注释与操作视频。理论概述中提到,传统人脸识别易受非活体攻击影响,而MobileNet通过轻量化的深度可分离卷积结构,在保证准确性的同时提升检测效率。活体人脸与非活体在纹理和光照上存在显著差异,MobileNet可有效提取人脸高级特征,为无线通信领域提供先进的调制类型识别方案。
|
2月前
|
机器学习/深度学习 人工智能 算法
基于Python深度学习的【蘑菇识别】系统~卷积神经网络+TensorFlow+图像识别+人工智能
蘑菇识别系统,本系统使用Python作为主要开发语言,基于TensorFlow搭建卷积神经网络算法,并收集了9种常见的蘑菇种类数据集【"香菇(Agaricus)", "毒鹅膏菌(Amanita)", "牛肝菌(Boletus)", "网状菌(Cortinarius)", "毒镰孢(Entoloma)", "湿孢菌(Hygrocybe)", "乳菇(Lactarius)", "红菇(Russula)", "松茸(Suillus)"】 再使用通过搭建的算法模型对数据集进行训练得到一个识别精度较高的模型,然后保存为为本地h5格式文件。最后使用Django框架搭建了一个Web网页平台可视化操作界面,
160 11
基于Python深度学习的【蘑菇识别】系统~卷积神经网络+TensorFlow+图像识别+人工智能
|
24天前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于GA遗传优化TCN-LSTM时间卷积神经网络时间序列预测算法matlab仿真
本项目基于MATLAB 2022a实现了一种结合遗传算法(GA)优化的时间卷积神经网络(TCN)时间序列预测算法。通过GA全局搜索能力优化TCN超参数(如卷积核大小、层数等),显著提升模型性能,优于传统GA遗传优化TCN方法。项目提供完整代码(含详细中文注释)及操作视频,运行后无水印效果预览。 核心内容包括:1) 时间序列预测理论概述;2) TCN结构(因果卷积层与残差连接);3) GA优化流程(染色体编码、适应度评估等)。最终模型在金融、气象等领域具备广泛应用价值,可实现更精准可靠的预测结果。
|
1月前
|
机器学习/深度学习 数据采集 算法
基于yolov2和googlenet网络的疲劳驾驶检测算法matlab仿真
本内容展示了基于深度学习的疲劳驾驶检测算法,包括算法运行效果预览(无水印)、Matlab 2022a 软件版本说明、部分核心程序(完整版含中文注释与操作视频)。理论部分详细阐述了疲劳检测原理,通过对比疲劳与正常状态下的特征差异,结合深度学习模型提取驾驶员面部特征变化。具体流程包括数据收集、预处理、模型训练与评估,使用数学公式描述损失函数和推理过程。课题基于 YOLOv2 和 GoogleNet,先用 YOLOv2 定位驾驶员面部区域,再由 GoogleNet 分析特征判断疲劳状态,提供高准确率与鲁棒性的检测方法。
|
4月前
|
SQL 安全 网络安全
网络安全与信息安全:知识分享####
【10月更文挑战第21天】 随着数字化时代的快速发展,网络安全和信息安全已成为个人和企业不可忽视的关键问题。本文将探讨网络安全漏洞、加密技术以及安全意识的重要性,并提供一些实用的建议,帮助读者提高自身的网络安全防护能力。 ####
114 17
|
4月前
|
SQL 安全 网络安全
网络安全与信息安全:关于网络安全漏洞、加密技术、安全意识等方面的知识分享
随着互联网的普及,网络安全问题日益突出。本文将从网络安全漏洞、加密技术和安全意识三个方面进行探讨,旨在提高读者对网络安全的认识和防范能力。通过分析常见的网络安全漏洞,介绍加密技术的基本原理和应用,以及强调安全意识的重要性,帮助读者更好地保护自己的网络信息安全。
84 10

热门文章

最新文章