【Python深度学习】Tensorflow+CNN进行人脸识别实战(附源码和数据集)

简介: 【Python深度学习】Tensorflow+CNN进行人脸识别实战(附源码和数据集)

需要源码和数据集请点赞关注收藏后评论区留言私信~~~

下面利用tensorflow平台进行人脸识别实战,使用的是Olivetti Faces人脸图像 部分数据集展示如下

程序训练过程如下

接下来训练CNN模型 可以看到训练进度和损失值变化

接下来展示人脸识别结果

程序会根据一张图片自动去图片集中寻找相似的人脸 如上图所示

部分代码如下 需要全部源码和数据集请点赞关注收藏后评论区留言私信~~~

from os import listdir
import numpy as np
from PIL import Image
import cv2
from tensorflow.keras.models import Sequential, load_model
from tensorflow.keras.layers import Dense, Activation, Convolution2D, MaxPooling2D, Flatten
from sklearn.model_selection import train_test_split
from tensorflow.python.keras.utils import np_utils
# 读取人脸图片数据
def img2vector(fileNamestr):
    # 创建向量
    returnVect = np.zeros((57,47))    
    image = Image.open(fileNamestr).convert('L')    
    img = np.asarray(image).reshape(57,47)    
    return img
# 制作人脸数据集
def GetDataset(imgDataDir):   
    print('| Step1 |: Get dataset...')
    imgDataDir='faces_4/'
    FileDir = listdir(imgDataDir)
    m = len(FileDir)
    imgarray=[]
    hwLabels=[]
    hwdata=[]
    # 逐个读取图片文件
    for i in range(m):
        # 提取子目录
        className=i
        subdirName='faces_4/'+str(FileDir[i])+'/'
        fileNames = listdir(subdirName)                
        lenFiles=len(fileNames)
        # 提取文件名
        for j in range(lenFiles): 
            fileNamestr = subdirName+fileNames[j]
            hwLabels.append(className)    
            imgarray=img2vector(fileNamestr)
            hwdata.append(imgarray)
    hwdata = np.array(hwdata)
    return hwdata,hwLabels,6
# CNN模型类
class MyCNN(object):
    FILE_PATH = "face_recognition.h5"  # 模型存储/读取目录
    picHeight = 57  # 模型的人脸图片长47,宽57
    picWidth = 47  
    def __init__(self):
        self.model = None
    # 获取训练数据集
    def read_trainData(self, dataset):        
        self.dataset = dataset
    # 建立Sequential模型,并赋予参数
    def build_model(self):
        print('| Step2 |: Init CNN model...')
        self.model = Sequential()
        print('self.dataset.X_train.shape[1:]',self.dataset.X_train.shape[1:])
        self.model.add( Convolution2D( filters=32,
                                      kernel_size=(5, 5),
                                      padding='same',
                                      #dim_ordering='th',
                                      input_shape=self.dataset.X_train.shape[1:]))
        self.model.add(Activation('relu'))
        self.model.add( MaxPooling2D(pool_size=(2, 2),
                                     strides=(2, 2),
                                     padding='same' ) )
        self.model.add(Convolution2D(filters=64, 
                                     kernel_size=(5, 5), 
                                     padding='same') )
        self.model.add(Activation('relu'))
        self.model.add(MaxPooling2D(pool_size=(2, 2), 
                                    strides=(2, 2), 
                                    padding='same') )
        self.model.add(Flatten())
        self.model.add(Dense(512))
        self.model.add(Activation('relu'))
        self.model.add(Dense(self.dataset.num_classes))
        self.model.add(Activation('softmax'))
        self.model.summary()
    # 模型训练
    def train_model(self):
        print('| Step3 |: Train CNN model...')
        self.model.compile( optimizer='adam', loss='categorical_crossentropy', metrics=['accuracy'])
        # epochs:训练代次、batch_size:每次训练样本数
        self.model.fit(self.dataset.X_train, self.dataset.Y_train, epochs=10, batch_size=20)
    def evaluate_model(self):
        loss, accuracy = self.model.evaluate(self.dataset.X_test, self.dataset.Y_test)
        print('| Step4 |: Evaluate performance...')
        print('===================================')        
        print('Loss   Value   is :', loss)
        print('Accuracy Value is :', accuracy)
    def save(self, file_path=FILE_PATH):        
        print('| Step5 |: Save model...')
        self.model.save(file_path)
        print('Model ',file_path,'is succeesfuly saved.')
# 建立一个用于存储和格式化读取训练数据的类
class DataSet(object):
    def __init__(self, path):
        self.num_classes = None
        self.X_train = None
        self.X_test = None
        self.Y_train = None
        self.Y_test = None
        self.picWidth = 47
        self.picHeight = 57        
        self.makeDataSet(path)  # 在这个类初始化的过程中读取path下的训练数据
    def makeDataSet(self, path):
        # 根据指定路径读取出图片、标签和类别数
        imgs, labels, clasNum = GetDataset(path)
        # 将数据集打乱随机分组
        X_train, X_test, y_train, y_test = train_test_split(imgs, labels, test_size=0.2,random_state=1)
        # 重新格式化和标准化
        X_train = X_train.reshape(X_train.shape[0], 1, self.picHeight, self.picWidth) / 255.0
        X_test = X_test.reshape(X_test.shape[0], 1, self.picHeight, self.picWidth) / 255.0
        X_train = X_train.astype('float32')
        X_test = X_test.astype('float32')
        # 将labels转成 binary class matrices
        Y_train = np_utils.to_categorical(y_train, num_classes=clasNum)
        Y_test = np_utils.to_categorical(y_test, num_classes=clasNum)
        # 将格式化后的数据赋值给类的属性上
        self.X_train = X_train
        self.X_test = X_test
        self.Y_train = Y_train
        self.Y_test = Y_test
        self.num_classes = clasNum
# 人脸图片目录
dataset = DataSet('faces_4/')
model = MyCNN()
model.read_trainData(dataset)
model.build_model()
model.train_model()
model.evaluate_model()
model.save()

创作不易 觉得有帮助请点赞关注收藏~~~

相关文章
|
6月前
|
SQL 关系型数据库 数据库
Python SQLAlchemy模块:从入门到实战的数据库操作指南
免费提供Python+PyCharm编程环境,结合SQLAlchemy ORM框架详解数据库开发。涵盖连接配置、模型定义、CRUD操作、事务控制及Alembic迁移工具,以电商订单系统为例,深入讲解高并发场景下的性能优化与最佳实践,助你高效构建数据驱动应用。
788 7
|
6月前
|
数据采集 Web App开发 数据安全/隐私保护
实战:Python爬虫如何模拟登录与维持会话状态
实战:Python爬虫如何模拟登录与维持会话状态
|
6月前
|
存储 数据采集 监控
Python文件操作全攻略:从基础到高级实战
本文系统讲解Python文件操作核心技巧,涵盖基础读写、指针控制、异常处理及大文件分块处理等实战场景。结合日志分析、CSV清洗等案例,助你高效掌握文本与二进制文件处理,提升程序健壮性与开发效率。(238字)
544 1
|
6月前
|
Java 调度 数据库
Python threading模块:多线程编程的实战指南
本文深入讲解Python多线程编程,涵盖threading模块的核心用法:线程创建、生命周期、同步机制(锁、信号量、条件变量)、线程通信(队列)、守护线程与线程池应用。结合实战案例,如多线程下载器,帮助开发者提升程序并发性能,适用于I/O密集型任务处理。
668 0
|
6月前
|
机器学习/深度学习 监控 数据挖掘
Python 高效清理 Excel 空白行列:从原理到实战
本文介绍如何使用Python的openpyxl库自动清理Excel中的空白行列。通过代码实现高效识别并删除无数据的行与列,解决文件臃肿、读取错误等问题,提升数据处理效率与准确性,适用于各类批量Excel清理任务。
616 0
|
机器学习/深度学习 运维 安全
深度学习在安全事件检测中的应用:守护数字世界的利器
深度学习在安全事件检测中的应用:守护数字世界的利器
530 22
|
机器学习/深度学习 编解码 人工智能
计算机视觉五大技术——深度学习在图像处理中的应用
深度学习利用多层神经网络实现人工智能,计算机视觉是其重要应用之一。图像分类通过卷积神经网络(CNN)判断图片类别,如“猫”或“狗”。目标检测不仅识别物体,还确定其位置,R-CNN系列模型逐步优化检测速度与精度。语义分割对图像每个像素分类,FCN开创像素级分类范式,DeepLab等进一步提升细节表现。实例分割结合目标检测与语义分割,Mask R-CNN实现精准实例区分。关键点检测用于人体姿态估计、人脸特征识别等,OpenPose和HRNet等技术推动该领域发展。这些方法在效率与准确性上不断进步,广泛应用于实际场景。
1412 64
计算机视觉五大技术——深度学习在图像处理中的应用
|
机器学习/深度学习 传感器 数据采集
深度学习在故障检测中的应用:从理论到实践
深度学习在故障检测中的应用:从理论到实践
1291 6
|
机器学习/深度学习 人工智能 运维
深度学习在流量监控中的革命性应用
深度学习在流量监控中的革命性应用
489 40
|
12月前
|
机器学习/深度学习 数据采集 存储
深度学习在DOM解析中的应用:自动识别页面关键内容区块
本文探讨了如何通过深度学习模型优化东方财富吧财经新闻爬虫的性能。针对网络请求、DOM解析与模型推理等瓶颈,采用代理复用、批量推理、多线程并发及模型量化等策略,将单页耗时从5秒优化至2秒,提升60%以上。代码示例涵盖代理配置、TFLite模型加载、批量预测及多线程抓取,确保高效稳定运行,为大规模数据采集提供参考。
384 0

推荐镜像

更多