构建自动车牌识别系统

本文涉及的产品
全局流量管理 GTM,标准版 1个月
云解析 DNS,旗舰版 1个月
公共DNS(含HTTPDNS解析),每月1000万次HTTP解析
简介: 构建自动车牌识别系统

本文介绍了如何从零开始开发车牌对象检测模型。整体项目中还包含了一个使用Flask的API。在本文中我们将解释如何从头开始训练自定义对象检测模型。

项目架构

现在,让我们看看我们要构建的车牌识别和OCR的项目架构。

640.png

在上面的架构中,有六个模块。标记、训练、保存模型、OCR和模型管道,以及RESTful API。但是本文只详细介绍前三个模块。过程如下。首先,我们将收集图像。然后使用python GUI开发的开源软件图像标注工具对图像进行车牌或号牌的标注。然后在对图像进行标记后,我们将进行数据预处理,在TensorFlow 2中构建和训练一个深度学习目标检测模型(Inception Resnet V2)。完成目标检测模型训练过程后,使用该模型裁剪包含车牌的图像,也称为关注区域(ROI),并将该ROI传递给Python中的 Tesserac API。使用PyTesseract,我们将从图像中提取文本。最后我们将所有这些放在一起,并构建深度学习模型管道。在最后一个模块中,将使用FLASK Python创建一个Web应用程序项目。这样,我们可以将我们的应用程序发布供他人使用。

标注

为了建立车牌识别,我们需要数据。为此,我们需要收集车牌出现在其上的车辆图像。这对于图像标签,我使用了LabelImg图像标注工具。从GitHub下载labelImg并按照说明安装软件包。打开之后,GUI给出指示,然后单击CreateRectBox并绘制如下所示的矩形框,然后将输出保存为XML。

pipinstallpyqt=5pipinstalllxmlpyrcc5-olibs/resources.pyresources.qrcpythonlabelImg.pypythonlabelImg.py [IMAGE_PATH] [PRE-DEFINEDCLASSFILE

640.png

这是一个手动过程,您需要对所有图像进行处理。标注时要注意,因为这个过程会直接影响模型的准确性。

从XML解析信息

完成标注过程后,现在我们需要进行一些数据预处理。

640.png

由于标注的输出是XML,为了将其用于训练过程,我们需要处理格式数据。因此我们将从标签中获得有用的信息,例如它的边界框的对角点,分别是xmin,ymin,xmax,ymax,如图3所示 ,我们需要提取信息并将其保存为任何方便的格式,在这里,我将边界信息转换为CSV,随后,我将使用Pandas将其转换为数组。现在,让我们看看如何使用Python解析信息。

我使用xml.etree python库来解析XML中的数据,并导入pandas和glob。首先使用glob获取在标记过程中生成的所有XML文件。

importpandasaspdfromglobimportglobimportxml.etree.ElementTreeasxetpath=glob('./images/*.xml')
labels_dict=dict(filepath=[],xmin=[],xmax=[],ymin=[],ymax=[])
forfilenameinpath:
info=xet.parse(filename)
root=info.getroot()
member_object=root.find('object')
labels_info=member_object.find('bndbox')
xmin=int(labels_info.find('xmin').text)
xmax=int(labels_info.find('xmax').text)
ymin=int(labels_info.find('ymin').text)
ymax=int(labels_info.find('ymax').text)
#print(xmin,xmax,ymin,ymax)
labels_dict['filepath'].append(filename)
labels_dict['xmin'].append(xmin)
labels_dict['xmax'].append(xmax)
labels_dict['ymin'].append(ymin)
labels_dict['ymax'].append(ymax)

在上面的代码中,我们分别获取每个文件并将其解析为xml.etree,然后找到对象-> bndbox,它位于第2至7行。然后提取xmin,xmax,ymin,ymax并将这些值保存在字典中 在第8至17行中。然后,将其转换为pandas的df,并将其保存到CSV文件中,如下所示。

df=pd.DataFrame(labels_dict)
df.to_csv('labels.csv',index=False)
df.head()

640.png

通过以上代码,我们成功提取了每个图像的对角线位置,并将数据从非结构化格式转换为结构化格式。

现在,我们来提取XML的相应图像文件名。

importosdefgetFilename(filename):
filename_image=xet.parse(filename).getroot().find('filename').textfilepath_image=os.path.join('./images',filename_image)
returnfilepath_imageimage_path=list(df['filepath'].apply(getFilename))
image_path

验证数据

到目前为止,我们都是进行的手动处理,因此重要的是要验证所获得的信息是否有效。我们只需验证边界框对于给定图像正确显示。

file_path="N1.jpeg"xmin,xmax,ymin,ymax=1093,1396,645,727img=cv2.imread(file_path)
cv2.rectangle(img,(xmin,ymin),(ymin,ymax),(0,255,0),3)
cv2.namedWindow('example',cv2.WINDOW_NORMAL)
cv2.imshow('example',img)
cv2.waitKey(0)
cv2.destroyAllWindows()

640.png

数据处理

这是非常重要的一步,在此过程中,我们将获取每张图像,并使用OpenCV将其转换为数组,然后将图像调整为224 x 224,这是预训练的转移学习模型的标准兼容尺寸。

fromsklearn.model_selectionimporttrain_test_splitfromtensorflow.keras.preprocessing.imageimportload_img, img_to_arrayimportcv2importnumpyasnplabels=df.iloc[:,1:].valuesdata= []
output= []
forindinrange(len(image_path)):
image=image_path[ind]
img_arr=cv2.imread(image)
h,w,d=img_arr.shape#prepprocesingload_image=load_img(image,target_size=(224,224))
load_image_arr=img_to_array(load_image)
norm_load_image_arr=load_image_arr/255.0#normalization#normalizationtolabelsxmin,xmax,ymin,ymax=labels[ind]
nxmin,nxmax=xmin/w,xmax/wnymin,nymax=ymin/h,ymax/hlabel_norm= (nxmin,nxmax,nymin,nymax) #normalizedoutput#--------------appenddata.append(norm_load_image_arr)
output.append(label_norm)

我们将通过除以最大数量来归一化图像,因为我们知道8位图像的最大数量为 255

我们还需要对标签进行规范化。因为对于深度学习模型,输出范围应该在0到1之间。为了对标签进行归一化,我们需要将对角点除以图像的宽度和高度。

X=np.array(data,dtype=np.float32)
y=np.array(output,dtype=np.float32)

sklearn的函数可以方便的将数据分为训练和测试集。

x_train,x_test,y_train,y_test=train_test_split(X,y,train_size=0.8,random_state=0)
x_train.shape,x_test.shape,y_train.shape,y_test.shape

训练

现在我们已经可以准备训练用于对象检测的深度学习模型了。本篇文章中,我们将使用具有预训练权重的InceptionResNetV2模型,并将其训练到我们的数据中。首先从TensorFlow 2.3.0导入必要的库

fromtensorflow.keras.applicationsimportInceptionResNetV2fromtensorflow.keras.layersimportDense, Dropout, Flatten, Inputfromtensorflow.keras.modelsimportModelimporttensorflowastf

我们需要的是一个对象检测模型,而期望的输出数量是4(对角点的信息)。我们将在迁移学习模型中添加一个嵌入神经网络层,如第5至9行所示。

inception_resnet=InceptionResNetV2(weights="imagenet",include_top=False,
input_tensor=Input(shape=(224,224,3)))
inception_resnet.trainable=False#---------------------headmodel=inception_resnet.outputheadmodel=Flatten()(headmodel)
headmodel=Dense(500,activation="relu")(headmodel)
headmodel=Dense(250,activation="relu")(headmodel)
headmodel=Dense(4,activation='sigmoid')(headmodel)
#----------modelmodel=Model(inputs=inception_resnet.input,outputs=headmodel)

现在编译模型并训练模型

#compliemodelmodel.compile(loss='mse',optimizer=tf.keras.optimizers.Adam(learning_rate=1e-4))
model.summary()
fromtensorflow.keras.callbacksimportTensorBoardtfb=TensorBoard('object_detection')
history=model.fit(x=x_train,y=y_train,batch_size=10,epochs=200,
validation_data=(x_test,y_test),callbacks=[tfb])

我们训练模型通常需要3到4个小时,具体取决于计算机的速度。在这里,我们使用TensorBoard记录了中模型训练时的损失。

640.png

进行边界框预测

这是最后一步。在这一步中,我们将所有这些放在一起并获得给定图像的预测。

#createpipelinepath='./test_images/N207.jpeg'defobject_detection(path):
#readimageimage=load_img(path) #PILobjectimage=np.array(image,dtype=np.uint8) #8bitarray (0,255)
image1=load_img(path,target_size=(224,224))
#datapreprocessingimage_arr_224=img_to_array(image1)/255.0#convertintoarrayandgetthenormalizedoutputh,w,d=image.shapetest_arr=image_arr_224.reshape(1,224,224,3)
#makepredictionscoords=model.predict(test_arr)
#denormalizethevaluesdenorm=np.array([w,w,h,h])
coords=coords*denormcoords=coords.astype(np.int32)
#drawboundingontoptheimagexmin, xmax,ymin,ymax=coords[0]
pt1=(xmin,ymin)
pt2=(xmax,ymax)
print(pt1, pt2)
cv2.rectangle(image,pt1,pt2,(0,255,0),3)
returnimage, coords#------getpredictionpath='./test_images/N207.jpeg'image, cods=object_detection(path)
plt.figure(figsize=(10,8))
plt.imshow(image)
plt.show()

本文仅说明了项目架构的50%。下一个过程涉及从车牌中提取文本并在Flask中开发RestfulAPI。

目录
相关文章
|
传感器 存储
智能振弦传感器参数智能识别技术:简化工作流程,提高工作效率的利器
智能振弦传感器参数智能识别技术:简化工作流程,提高工作效率的利器 振弦传感器是一种能够测量震动和振动的设备,主要应用于许多领域,例如建筑物、机械工业、汽车工业等。随着智能化设备的发展,智能振弦传感器的识别技术也随之发展。本文将介绍智能振弦传感器参数智能识别技术的相关内容。
智能振弦传感器参数智能识别技术:简化工作流程,提高工作效率的利器
|
2月前
|
人工智能 算法 安全
基于YOLOv8的交通车辆实时检测系统【训练和系统源码+Pyside6+数据集+包运行】
基于YOLOv8的交通车辆实时检测系统,使用5830张图片训练出有效模型,开发了Python和Pyside6的GUI界面系统,支持图片、视频和摄像头实时检测,具备模型权重导入、检测置信度调节等功能,旨在提升道路安全和改善交通管理。
69 1
基于YOLOv8的交通车辆实时检测系统【训练和系统源码+Pyside6+数据集+包运行】
|
2月前
|
人工智能 算法 安全
基于YOLOV8的骑行智能守护实时检测系统【训练和系统源码+Pyside6+数据集+包运行】
基于YOLOv8的骑行智能守护实时检测系统,通过图像处理和AI技术,实时监测电动车及骑行者头盔佩戴情况,提升道路安全。该系统支持图片、视频和摄像头实时检测,具备GUI界面,便于操作和展示结果。使用5448张真实场景图片训练,包含电动车和骑行者是否佩戴头盔的三类标注。系统基于Python和Pyside6开发,具备模型权重导入、检测置信度调节等功能。
85 0
基于YOLOV8的骑行智能守护实时检测系统【训练和系统源码+Pyside6+数据集+包运行】
|
3月前
|
自然语言处理 决策智能 Python
同时操控手机和电脑,100项任务,跨系统智能体评测基准有了
【9月更文挑战第9天】近年来,随着人工智能技术的进步,自主智能体的应用日益广泛。为解决现有评测基准的局限性,研究人员推出了CRAB(Cross-environment Agent Benchmark),这是一种支持跨环境任务的新框架,结合了基于图的精细评估方法和高效的任务构建机制。CRAB框架支持多种设备并可轻松扩展至任何具备Python接口的环境。首个跨平台基准CRAB-v0包含100项任务,实验显示GPT-4单智能体在完成率方面表现最佳。CRAB框架为智能体研究提供了新机遇,但也面临计算资源和评估准确性等方面的挑战。
76 9
|
7月前
|
传感器 数据采集 监控
LabVIEW 开发在不确定路况下自动速度辅助系统
LabVIEW 开发在不确定路况下自动速度辅助系统
31 0
|
7月前
|
机器学习/深度学习 文字识别 算法
视觉智能平台常见问题之车辆损伤识别接口用不了如何解决
视觉智能平台是利用机器学习和图像处理技术,提供图像识别、视频分析等智能视觉服务的平台;本合集针对该平台在使用中遇到的常见问题进行了收集和解答,以帮助开发者和企业用户在整合和部署视觉智能解决方案时,能够更快地定位问题并找到有效的解决策略。
|
7月前
|
存储 数据采集 数据库
【C++】医学影像PACS管理系统源码支持三维图像后处理和重建
【C++】医学影像PACS管理系统源码支持三维图像后处理和重建
138 0
|
监控 数据管理 调度
环境检测实验室管理系统 环境检测LIMS系统
白码环境监测实验室管理系统针对实验室管理中遇到的问题和难点,提供对环境监测实验室所有监测业务的全流程管理,实现对实验室“人、机、料、法、环”(即人员、仪器、样品、方法、环境)的全面资源管理,实现环境监测实验室工作的自动化和规范化。
|
机器学习/深度学习 缓存 人工智能
X-Anylabeling: 新一代自动标注工具
X-AnyLabeling:具备增强功能的高级自动标注解决方案
6413 0
X-Anylabeling: 新一代自动标注工具
|
项目管理
WMWS工程仪器设备在线监测管理系统使用注意事项
WMWS(Wincom Monitoring Web System)是稳控科技专门为终端客户开发的在线监测管理系统,基于BS 架构。可在浏览端实现项目管理、数据查看与下载、曲线查看等操作。系统界面风格简约、布局统一、逻辑清晰,具有极佳的操控体验。三层监测要素架构,实现了多项目、多设备、多测点无限扩展,可满足小型、中型的单(多)项目管理。
WMWS工程仪器设备在线监测管理系统使用注意事项

热门文章

最新文章