【paddle深度学习高层API七日打卡营】三岁水课第三天——面部关键点识别

简介: 【paddle深度学习高层API七日打卡营】三岁水课第三天——面部关键点识别

大家好,这里是三岁,别的不会,擅长白话,今天就是我们的白话系列,内容是paddle2.0新出的高程API,在这里的七日打卡营0基础学习,emmm我这个负基础的也来凑凑热闹,那么就开始吧~~~~

注:以下白话内容为个人理解,如有不同看法和观点及不对的地方欢迎大家批评指正!


课程传送门


20210206112644745.png


2aead1c9391422cd84d7d21a1af783ce.png


人脸关键点识别的本质是一个回归任务


分类VS回归



20210206113837900.png


关键点识别和分类的区别嘛:应该还是很大的,分类只要识别是什么类型的得到一个大概的位置即可,但是回归问题在处理完这些以后要定性,确定到那个位置,一个是区域性质的一个是固定的点,这个难度可想而知。


20210206113950255.png


损失函数


20210206114054461.png


两个损失函数的层面就可以看出差距还是很大的


评估指标(NME)


20210206114130538.png



这里表示的主要是两眼瞳孔之间的距离或者是眼角之间的距离


代码实战



paddle.set_device('gpu') # 设置为GPU


数据分析及处理


数据集地址传送门

  • 数据的结构


data/
|—— test
|   |—— Abdel_Aziz_Al-Hakim_00.jpg
    ... ...
|—— test_frames_keypoints.csv
|—— training
|   |—— Abdullah_Gul_10.jpg
    ... ...
|—— training_frames_keypoints.csv

其中,training 和 test 文件夹分别存放训练集和测试集。training_frames_keypoints.csv 和 test_frames_keypoints.csv 存放着训练集和测试集的标签。接下来,我们先来观察一下 training_frames_keypoints.csv 文件,看一下训练集的标签是如何定义的。


  • 查看csv文件的内容
key_pts_frame = pd.read_csv('data/training_frames_keypoints.csv') # 读取数据集
print('Number of images: ', key_pts_frame.shape[0]) # 输出数据集大小
key_pts_frame.head(5) # 看前五条数据


20210206160414498.png


通过pandas对前5条数据进行读取查看到一共是136个点数据也就是有68个关键点

  • 展示68点数据排列


0933bdce12e4571b6167f81b9554d59b.jpg



看到这里不禁想到paddleHub的人脸检测模型 传送门

感兴趣对的小伙伴也可以去看一看

  • 对标签数据做平均和标准差


# 计算标签的均值和标准差,用于标签的归一化
key_pts_values = key_pts_frame.values[:,1:] # 取出标签信息
data_mean = key_pts_values.mean() # 计算均值
data_std = key_pts_values.std()   # 计算标准差
print('标签的均值为:', data_mean)
print('标签的标准差为:', data_std)


标签的均值为: 104.4724870017331

标签的标准差为: 43.17302271754281


  • 展示关键点


def show_keypoints(image, key_pts):
    """
    Args:
        image: 图像信息
        key_pts: 关键点信息,
    展示图片和关键点信息
    """
    plt.imshow(image.astype('uint8'))  # 展示图片信息
    for i in range(len(key_pts)//2,):
        plt.scatter(key_pts[i*2], key_pts[i*2+1], s=20, marker='.', c='b') # 展示关键点信息


2021020616195654.png


os.path.join():是用于拼接地址的


  • 定义数据集
    在paddle2.0.0中使用高级API:paddle.io.Dataset来对数据进行处理


导入我们的处理高级API,新建类并继承dataset

from paddle.io import Dataset
class FacialKeypointsDataset(Dataset):


导入并获取数据


def __init__(self, csv_file, root_dir, transform=None):
        """
        步骤二:实现构造函数,定义数据集大小
        Args:
            csv_file (string): 带标注的csv文件路径
            root_dir (string): 图片存储的文件夹路径
            transform (callable, optional): 应用于图像上的数据处理方法
        """
        self.key_pts_frame = pd.read_csv(csv_file) # 读取csv文件
        self.root_dir = root_dir # 获取图片文件夹路径
        self.transform = transform # 获取 transform 方法


(1)先获取图片位置然后通过os.path.join函数拼接地址,然后读取图片。

(2)图片处理,把alpha(图像透明通道)忽略

(3)和上面查看图片有一的方式通过pandas获取关键点的数据

(4)定义transform方法,虽然默认是None,但是也要进行定义

(5)把上述处理以后的数据转换成数组

    def __getitem__(self, idx):
        """
        步骤三:实现__getitem__方法,定义指定index时如何获取数据,并返回单条数据(训练数据,对应的标签)
        """
        image_name = os.path.join(self.root_dir,
                                self.key_pts_frame.iloc[idx, 0])
        # 获取图像
        image = mpimg.imread(image_name)
        # 图像格式处理,如果包含 alpha 通道,那么忽略它
        if(image.shape[2] == 4):
            image = image[:,:,0:3]
        # 获取关键点信息
        key_pts = self.key_pts_frame.iloc[idx, 1:].as_matrix()
        key_pts = key_pts.astype('float').reshape(-1) # [136, 1]
        # 如果定义了 transform 方法,使用 transform方法
        if self.transform:
            image, key_pts = self.transform([image, key_pts])
        # 转为 numpy 的数据格式
        image = np.array(image, dtype='float32')
        key_pts = np.array(key_pts, dtype='float32')
        return image, key_pts


  • 对上面定义的数据进行展示(相当于一种检测是否有问题)

把之前的类进行调用并把数据集的有关资料进行“填喂”


# 构建一个数据集类
face_dataset = FacialKeypointsDataset(csv_file='data/training_frames_keypoints.csv',
                                      root_dir='data/training/')


查看数据集的大小


# 输出数据集大小
print('数据集大小为: ', len(face_dataset))


展示图片

for i in range(num_to_display):
    # 定义图片大小
    fig = plt.figure(figsize=(20,10))
    # 随机选择图片
    rand_i = np.random.randint(0, len(face_dataset))
    sample = face_dataset[rand_i]
    # 输出图片大小和关键点的数量
    print(i, sample[0].shape, sample[1].shape)
    # 设置图片打印信息
    ax = plt.subplot(1, num_to_display, i + 1)
    ax.set_title('Sample #{}'.format(i))
    # 输出图片
    show_keypoints(sample[0], sample[1])


20210206165102712.png


*目前为止数据存在的问题:

  • 每张图像的大小不一样,图像大小需要统一以适配网络输入要求
  • 图像格式需要适配模型的格式输入要求
  • 数据量比较小,没有进行数据增强
  • Transforms(之前做了定义)


对图像进行预处理,包括灰度化、归一化、重新设置尺寸、随机裁剪,修改通道格式等等,以满足数据要求;每一类的功能如下:

  • 灰度化:丢弃颜色信息,保留图像边缘信息;识别算法对于颜色的依赖性不强,加上颜色后鲁棒性会下降,而且灰度化图像维度下降(3->1),保留梯度的同时会加快计算。
  • 归一化:加快收敛
  • 重新设置尺寸:数据增强
  • 随机裁剪:数据增强
  • 修改通道格式:改为模型需要的结构


设置 Transforms


标准化定义 transform 方法

class TransformAPI(object):
    """
    步骤一:继承 object 类
    """
    def __call__(self, data):
        """
        步骤二:在 __call__ 中定义数据处理方法
        """
        processed_data = data
        return  processed_data


接下去通过paddle.vision.transformsAPI对数据进行处理

  • 对图片进行灰度处理任何进行数据归一化


class GrayNormalize(object):
    # 将图片变为灰度图,并将其值放缩到[0, 1]
    # 将 label 放缩到 [-1, 1] 之间
    def __call__(self, data):
        image = data[0]   # 获取图片
        key_pts = data[1] # 获取标签
        image_copy = np.copy(image)
        key_pts_copy = np.copy(key_pts)
        # 灰度化图片
        gray_scale = paddle.vision.transforms.Grayscale(num_output_channels=3)
        image_copy = gray_scale(image_copy)
        # 将图片值放缩到 [0, 1]
        image_copy = image_copy / 255.0
        # 将坐标点放缩到 [-1, 1]
        mean = data_mean # 获取标签均值
        std = data_std   # 获取标签标准差
        key_pts_copy = (key_pts_copy - mean)/std
        return image_copy, key_pts_copy


  • 对图像的大小和关键点数据进行处理,使其图像大小相同任何关键点配套


class Resize(object):
    # 将输入图像调整为指定大小
    def __init__(self, output_size):
        assert isinstance(output_size, (int, tuple))
        self.output_size = output_size
    def __call__(self, data):
        image = data[0]    # 获取图片
        key_pts = data[1]  # 获取标签
        image_copy = np.copy(image)      
        key_pts_copy = np.copy(key_pts)
        # 对关键点进行缩放
        h, w = image_copy.shape[:2]
        if isinstance(self.output_size, int):
            if h > w:
                new_h, new_w = self.output_size * h / w, self.output_size
            else:
                new_h, new_w = self.output_size, self.output_size * w / h
        else:
            new_h, new_w = self.output_size
        new_h, new_w = int(new_h), int(new_w)
        img = F.resize(image_copy, (new_h, new_w))
        # scale the pts, too
        key_pts_copy[::2] = key_pts_copy[::2] * new_w / w
        key_pts_copy[1::2] = key_pts_copy[1::2] * new_h / h
        return img, key_pts_copy


  • 使用np.random对数据进行增强


class RandomCrop(object):
    # 随机位置裁剪输入的图像
    def __init__(self, output_size):
        assert isinstance(output_size, (int, tuple))
        if isinstance(output_size, int):
            self.output_size = (output_size, output_size)
        else:
            assert len(output_size) == 2
            self.output_size = output_size
    def __call__(self, data):
        image = data[0]
        key_pts = data[1]
        image_copy = np.copy(image)
        key_pts_copy = np.copy(key_pts)
        h, w = image_copy.shape[:2]
        new_h, new_w = self.output_size
        top = np.random.randint(0, h - new_h)
        left = np.random.randint(0, w - new_w)
        image_copy = image_copy[top: top + new_h,
                      left: left + new_w]
        key_pts_copy[::2] = key_pts_copy[::2] - left
        key_pts_copy[1::2] = key_pts_copy[1::2] - top
        return image_copy, key_pts_copy


  • 使用paddle.vision.transforms.Transpose修改成CHW表示形式
class ToCHW(object):
    # 将图像的格式由HWC改为CHW
    def __call__(self, data):
        # 实现ToCHW,可以使用 paddle.vision.transforms.Transpose 实现
        image = data[0]
        key_pts = data[1]
        transpose = T.Transpose((2, 0, 1)) # 改为CHW
        image = transpose(image)
        return image, key_pts


最后完成数据集的定义


把之前做了定义的transform做固定对裁剪修改等的数据传入数据集

from paddle.vision.transforms import Compose
data_transform = Compose([Resize(256), RandomCrop(224), GrayNormalize(), ToCHW()])
# create the transformed dataset
train_dataset = FacialKeypointsDataset(csv_file='data/training_frames_keypoints.csv',
                                       root_dir='data/training/',
                                       transform=data_transform)
print('Number of train dataset images: ', len(train_dataset))
for i in range(4):
    sample = train_dataset[i]
    print(i, sample[0].shape, sample[1].shape)
test_dataset = FacialKeypointsDataset(csv_file='data/test_frames_keypoints.csv',
                                             root_dir='data/test/',
                                             transform=data_transform)
print('Number of test dataset images: ', len(test_dataset))


模型的处理



90300cac29d44951b09d4ff8cf468a23.png


先使用resnet50卷积网络然后添加一个线性层使用的是Linear输入为1000因为卷积的输出是1000然后添加一个激活函数


        def __init__(self, key_pts):
        super(SimpleNet, self).__init__()
        # 实现 __init__
        # 使用resnet50作为backbone
        self.backbone = paddle.vision.models.resnet50(pretrained=True)
        # 添加第一个线性变换层
        self.linear1 = nn.Linear(in_features=1000, out_features=512)
        # 使用 ReLU 激活函数
        self.act1 = nn.ReLU()
        # 添加第二个线性变换层作为输出,输出元素的个数为 key_pts*2,代表每个关键点的坐标
        self.linear2 = nn.Linear(in_features=512, out_features=key_pts*2)


可视化模型


使用model.summary对刚刚定义的模型进行可视化

model = paddle.Model(SimpleNet(key_pts=68))
model.summary((-1, 3, 224, 224))


202102061746434.png


模型训练



以下内容和前两天的数据基本上是一样的,训练模型,保存,测试,展示等就不再过多的赘述。


总结



今天的人脸检测数据归类的任务,再一次从数据集的处理到网络的搭建一条龙的解析,今天的内容也确实比前两天的难度会大很多还是需要细细的品尝的。

那么今天就到这里了,明天再见

目录
相关文章
|
4月前
|
文字识别 API
印刷文字识别使用问题之API将全角括号识别为半角括号,该如何解决
印刷文字识别产品,通常称为OCR(Optical Character Recognition)技术,是一种将图像中的印刷或手写文字转换为机器编码文本的过程。这项技术广泛应用于多个行业和场景中,显著提升文档处理、信息提取和数据录入的效率。以下是印刷文字识别产品的一些典型使用合集。
|
4月前
|
机器学习/深度学习 TensorFlow API
Keras是一个高层神经网络API,由Python编写,并能够在TensorFlow、Theano或CNTK之上运行。Keras的设计初衷是支持快速实验,能够用最少的代码实现想法,并且能够方便地在CPU和GPU上运行。
Keras是一个高层神经网络API,由Python编写,并能够在TensorFlow、Theano或CNTK之上运行。Keras的设计初衷是支持快速实验,能够用最少的代码实现想法,并且能够方便地在CPU和GPU上运行。
|
5月前
|
机器学习/深度学习 人机交互 计算机视觉
基于YOLOv8深度学习的人脸面部表情识别系统【python源码+Pyqt5界面+数据集+训练代码】深度学习实战
基于YOLOv8深度学习的人脸面部表情识别系统【python源码+Pyqt5界面+数据集+训练代码】深度学习实战
基于YOLOv8深度学习的人脸面部表情识别系统【python源码+Pyqt5界面+数据集+训练代码】深度学习实战
|
5月前
|
机器学习/深度学习 人机交互 Python
基于深度学习的人脸面部表情识别系统【含Python源码+PyqtUI界面+原理详解】
基于深度学习的人脸面部表情识别系统【含Python源码+PyqtUI界面+原理详解】
基于深度学习的人脸面部表情识别系统【含Python源码+PyqtUI界面+原理详解】
|
5月前
|
JavaScript 前端开发 Java
信息打点-JS架构&框架识别&泄漏提取&API接口枚举&FUZZ&插件项目
信息打点-JS架构&框架识别&泄漏提取&API接口枚举&FUZZ&插件项目
|
5月前
|
机器学习/深度学习 存储 安全
基于YOLOv8深度学习的人脸面部口罩检测系统【python源码+Pyqt5界面+数据集+训练代码】目标检测
基于YOLOv8深度学习的人脸面部口罩检测系统【python源码+Pyqt5界面+数据集+训练代码】目标检测
|
6月前
|
机器学习/深度学习 算法 安全
深度学习在图像识别中的应用与挑战构建高效可扩展的RESTful API:后端开发的实战指南
【4月更文挑战第30天】 随着计算机视觉技术的飞速发展,深度学习在图像识别领域取得了显著的成果。本文将探讨深度学习技术在图像识别中的应用及其所面临的挑战。首先,我们将介绍深度学习的基本原理和关键技术,然后分析其在图像识别中的优势和应用案例。最后,我们将讨论当前深度学习在图像识别领域所面临的主要挑战和未来的发展趋势。
|
6月前
|
文字识别 安全 API
阿里云文字识别OCR的发票凭证识别功能可以通过API接口的形式进行调用
【2月更文挑战第5天】阿里云文字识别OCR的发票凭证识别功能可以通过API接口的形式进行调用
299 5
|
6月前
|
文字识别 JavaScript API
Vue实现:Ctrl+V粘贴文字图片截图,调用第三方API文字识别OCR内容并进行内容分割识别填充。
Vue实现:Ctrl+V粘贴文字图片截图,调用第三方API文字识别OCR内容并进行内容分割识别填充。
Vue实现:Ctrl+V粘贴文字图片截图,调用第三方API文字识别OCR内容并进行内容分割识别填充。
|
机器学习/深度学习 JSON 缓存
flask部署深度学习api接口
flask部署深度学习api接口
11578 3
下一篇
无影云桌面