【paddle深度学习高层API七日打卡营】三岁水课第三天——面部关键点识别

简介: 【paddle深度学习高层API七日打卡营】三岁水课第三天——面部关键点识别

大家好,这里是三岁,别的不会,擅长白话,今天就是我们的白话系列,内容是paddle2.0新出的高程API,在这里的七日打卡营0基础学习,emmm我这个负基础的也来凑凑热闹,那么就开始吧~~~~

注:以下白话内容为个人理解,如有不同看法和观点及不对的地方欢迎大家批评指正!


课程传送门


20210206112644745.png


2aead1c9391422cd84d7d21a1af783ce.png


人脸关键点识别的本质是一个回归任务


分类VS回归



20210206113837900.png


关键点识别和分类的区别嘛:应该还是很大的,分类只要识别是什么类型的得到一个大概的位置即可,但是回归问题在处理完这些以后要定性,确定到那个位置,一个是区域性质的一个是固定的点,这个难度可想而知。


20210206113950255.png


损失函数


20210206114054461.png


两个损失函数的层面就可以看出差距还是很大的


评估指标(NME)


20210206114130538.png



这里表示的主要是两眼瞳孔之间的距离或者是眼角之间的距离


代码实战



paddle.set_device('gpu') # 设置为GPU


数据分析及处理


数据集地址传送门

  • 数据的结构


data/
|—— test
|   |—— Abdel_Aziz_Al-Hakim_00.jpg
    ... ...
|—— test_frames_keypoints.csv
|—— training
|   |—— Abdullah_Gul_10.jpg
    ... ...
|—— training_frames_keypoints.csv

其中,training 和 test 文件夹分别存放训练集和测试集。training_frames_keypoints.csv 和 test_frames_keypoints.csv 存放着训练集和测试集的标签。接下来,我们先来观察一下 training_frames_keypoints.csv 文件,看一下训练集的标签是如何定义的。


  • 查看csv文件的内容
key_pts_frame = pd.read_csv('data/training_frames_keypoints.csv') # 读取数据集
print('Number of images: ', key_pts_frame.shape[0]) # 输出数据集大小
key_pts_frame.head(5) # 看前五条数据


20210206160414498.png


通过pandas对前5条数据进行读取查看到一共是136个点数据也就是有68个关键点

  • 展示68点数据排列


0933bdce12e4571b6167f81b9554d59b.jpg



看到这里不禁想到paddleHub的人脸检测模型 传送门

感兴趣对的小伙伴也可以去看一看

  • 对标签数据做平均和标准差


# 计算标签的均值和标准差,用于标签的归一化
key_pts_values = key_pts_frame.values[:,1:] # 取出标签信息
data_mean = key_pts_values.mean() # 计算均值
data_std = key_pts_values.std()   # 计算标准差
print('标签的均值为:', data_mean)
print('标签的标准差为:', data_std)


标签的均值为: 104.4724870017331

标签的标准差为: 43.17302271754281


  • 展示关键点


def show_keypoints(image, key_pts):
    """
    Args:
        image: 图像信息
        key_pts: 关键点信息,
    展示图片和关键点信息
    """
    plt.imshow(image.astype('uint8'))  # 展示图片信息
    for i in range(len(key_pts)//2,):
        plt.scatter(key_pts[i*2], key_pts[i*2+1], s=20, marker='.', c='b') # 展示关键点信息


2021020616195654.png


os.path.join():是用于拼接地址的


  • 定义数据集
    在paddle2.0.0中使用高级API:paddle.io.Dataset来对数据进行处理


导入我们的处理高级API,新建类并继承dataset

from paddle.io import Dataset
class FacialKeypointsDataset(Dataset):


导入并获取数据


def __init__(self, csv_file, root_dir, transform=None):
        """
        步骤二:实现构造函数,定义数据集大小
        Args:
            csv_file (string): 带标注的csv文件路径
            root_dir (string): 图片存储的文件夹路径
            transform (callable, optional): 应用于图像上的数据处理方法
        """
        self.key_pts_frame = pd.read_csv(csv_file) # 读取csv文件
        self.root_dir = root_dir # 获取图片文件夹路径
        self.transform = transform # 获取 transform 方法


(1)先获取图片位置然后通过os.path.join函数拼接地址,然后读取图片。

(2)图片处理,把alpha(图像透明通道)忽略

(3)和上面查看图片有一的方式通过pandas获取关键点的数据

(4)定义transform方法,虽然默认是None,但是也要进行定义

(5)把上述处理以后的数据转换成数组

    def __getitem__(self, idx):
        """
        步骤三:实现__getitem__方法,定义指定index时如何获取数据,并返回单条数据(训练数据,对应的标签)
        """
        image_name = os.path.join(self.root_dir,
                                self.key_pts_frame.iloc[idx, 0])
        # 获取图像
        image = mpimg.imread(image_name)
        # 图像格式处理,如果包含 alpha 通道,那么忽略它
        if(image.shape[2] == 4):
            image = image[:,:,0:3]
        # 获取关键点信息
        key_pts = self.key_pts_frame.iloc[idx, 1:].as_matrix()
        key_pts = key_pts.astype('float').reshape(-1) # [136, 1]
        # 如果定义了 transform 方法,使用 transform方法
        if self.transform:
            image, key_pts = self.transform([image, key_pts])
        # 转为 numpy 的数据格式
        image = np.array(image, dtype='float32')
        key_pts = np.array(key_pts, dtype='float32')
        return image, key_pts


  • 对上面定义的数据进行展示(相当于一种检测是否有问题)

把之前的类进行调用并把数据集的有关资料进行“填喂”


# 构建一个数据集类
face_dataset = FacialKeypointsDataset(csv_file='data/training_frames_keypoints.csv',
                                      root_dir='data/training/')


查看数据集的大小


# 输出数据集大小
print('数据集大小为: ', len(face_dataset))


展示图片

for i in range(num_to_display):
    # 定义图片大小
    fig = plt.figure(figsize=(20,10))
    # 随机选择图片
    rand_i = np.random.randint(0, len(face_dataset))
    sample = face_dataset[rand_i]
    # 输出图片大小和关键点的数量
    print(i, sample[0].shape, sample[1].shape)
    # 设置图片打印信息
    ax = plt.subplot(1, num_to_display, i + 1)
    ax.set_title('Sample #{}'.format(i))
    # 输出图片
    show_keypoints(sample[0], sample[1])


20210206165102712.png


*目前为止数据存在的问题:

  • 每张图像的大小不一样,图像大小需要统一以适配网络输入要求
  • 图像格式需要适配模型的格式输入要求
  • 数据量比较小,没有进行数据增强
  • Transforms(之前做了定义)


对图像进行预处理,包括灰度化、归一化、重新设置尺寸、随机裁剪,修改通道格式等等,以满足数据要求;每一类的功能如下:

  • 灰度化:丢弃颜色信息,保留图像边缘信息;识别算法对于颜色的依赖性不强,加上颜色后鲁棒性会下降,而且灰度化图像维度下降(3->1),保留梯度的同时会加快计算。
  • 归一化:加快收敛
  • 重新设置尺寸:数据增强
  • 随机裁剪:数据增强
  • 修改通道格式:改为模型需要的结构


设置 Transforms


标准化定义 transform 方法

class TransformAPI(object):
    """
    步骤一:继承 object 类
    """
    def __call__(self, data):
        """
        步骤二:在 __call__ 中定义数据处理方法
        """
        processed_data = data
        return  processed_data


接下去通过paddle.vision.transformsAPI对数据进行处理

  • 对图片进行灰度处理任何进行数据归一化


class GrayNormalize(object):
    # 将图片变为灰度图,并将其值放缩到[0, 1]
    # 将 label 放缩到 [-1, 1] 之间
    def __call__(self, data):
        image = data[0]   # 获取图片
        key_pts = data[1] # 获取标签
        image_copy = np.copy(image)
        key_pts_copy = np.copy(key_pts)
        # 灰度化图片
        gray_scale = paddle.vision.transforms.Grayscale(num_output_channels=3)
        image_copy = gray_scale(image_copy)
        # 将图片值放缩到 [0, 1]
        image_copy = image_copy / 255.0
        # 将坐标点放缩到 [-1, 1]
        mean = data_mean # 获取标签均值
        std = data_std   # 获取标签标准差
        key_pts_copy = (key_pts_copy - mean)/std
        return image_copy, key_pts_copy


  • 对图像的大小和关键点数据进行处理,使其图像大小相同任何关键点配套


class Resize(object):
    # 将输入图像调整为指定大小
    def __init__(self, output_size):
        assert isinstance(output_size, (int, tuple))
        self.output_size = output_size
    def __call__(self, data):
        image = data[0]    # 获取图片
        key_pts = data[1]  # 获取标签
        image_copy = np.copy(image)      
        key_pts_copy = np.copy(key_pts)
        # 对关键点进行缩放
        h, w = image_copy.shape[:2]
        if isinstance(self.output_size, int):
            if h > w:
                new_h, new_w = self.output_size * h / w, self.output_size
            else:
                new_h, new_w = self.output_size, self.output_size * w / h
        else:
            new_h, new_w = self.output_size
        new_h, new_w = int(new_h), int(new_w)
        img = F.resize(image_copy, (new_h, new_w))
        # scale the pts, too
        key_pts_copy[::2] = key_pts_copy[::2] * new_w / w
        key_pts_copy[1::2] = key_pts_copy[1::2] * new_h / h
        return img, key_pts_copy


  • 使用np.random对数据进行增强


class RandomCrop(object):
    # 随机位置裁剪输入的图像
    def __init__(self, output_size):
        assert isinstance(output_size, (int, tuple))
        if isinstance(output_size, int):
            self.output_size = (output_size, output_size)
        else:
            assert len(output_size) == 2
            self.output_size = output_size
    def __call__(self, data):
        image = data[0]
        key_pts = data[1]
        image_copy = np.copy(image)
        key_pts_copy = np.copy(key_pts)
        h, w = image_copy.shape[:2]
        new_h, new_w = self.output_size
        top = np.random.randint(0, h - new_h)
        left = np.random.randint(0, w - new_w)
        image_copy = image_copy[top: top + new_h,
                      left: left + new_w]
        key_pts_copy[::2] = key_pts_copy[::2] - left
        key_pts_copy[1::2] = key_pts_copy[1::2] - top
        return image_copy, key_pts_copy


  • 使用paddle.vision.transforms.Transpose修改成CHW表示形式
class ToCHW(object):
    # 将图像的格式由HWC改为CHW
    def __call__(self, data):
        # 实现ToCHW,可以使用 paddle.vision.transforms.Transpose 实现
        image = data[0]
        key_pts = data[1]
        transpose = T.Transpose((2, 0, 1)) # 改为CHW
        image = transpose(image)
        return image, key_pts


最后完成数据集的定义


把之前做了定义的transform做固定对裁剪修改等的数据传入数据集

from paddle.vision.transforms import Compose
data_transform = Compose([Resize(256), RandomCrop(224), GrayNormalize(), ToCHW()])
# create the transformed dataset
train_dataset = FacialKeypointsDataset(csv_file='data/training_frames_keypoints.csv',
                                       root_dir='data/training/',
                                       transform=data_transform)
print('Number of train dataset images: ', len(train_dataset))
for i in range(4):
    sample = train_dataset[i]
    print(i, sample[0].shape, sample[1].shape)
test_dataset = FacialKeypointsDataset(csv_file='data/test_frames_keypoints.csv',
                                             root_dir='data/test/',
                                             transform=data_transform)
print('Number of test dataset images: ', len(test_dataset))


模型的处理



90300cac29d44951b09d4ff8cf468a23.png


先使用resnet50卷积网络然后添加一个线性层使用的是Linear输入为1000因为卷积的输出是1000然后添加一个激活函数


        def __init__(self, key_pts):
        super(SimpleNet, self).__init__()
        # 实现 __init__
        # 使用resnet50作为backbone
        self.backbone = paddle.vision.models.resnet50(pretrained=True)
        # 添加第一个线性变换层
        self.linear1 = nn.Linear(in_features=1000, out_features=512)
        # 使用 ReLU 激活函数
        self.act1 = nn.ReLU()
        # 添加第二个线性变换层作为输出,输出元素的个数为 key_pts*2,代表每个关键点的坐标
        self.linear2 = nn.Linear(in_features=512, out_features=key_pts*2)


可视化模型


使用model.summary对刚刚定义的模型进行可视化

model = paddle.Model(SimpleNet(key_pts=68))
model.summary((-1, 3, 224, 224))


202102061746434.png


模型训练



以下内容和前两天的数据基本上是一样的,训练模型,保存,测试,展示等就不再过多的赘述。


总结



今天的人脸检测数据归类的任务,再一次从数据集的处理到网络的搭建一条龙的解析,今天的内容也确实比前两天的难度会大很多还是需要细细的品尝的。

那么今天就到这里了,明天再见

目录
相关文章
|
3月前
|
机器学习/深度学习 算法 计算机视觉
基于GoogleNet深度学习网络的花朵类型识别matlab仿真
基于GoogleNet深度学习网络的花朵类型识别matlab仿真
|
5月前
|
机器学习/深度学习 算法 数据挖掘
基于Googlenet深度学习网络的人脸身份识别matlab仿真
基于Googlenet深度学习网络的人脸身份识别matlab仿真
|
4月前
|
机器学习/深度学习 算法 TensorFlow
【Python深度学习】Tensorflow对半环形数据分类、手写数字识别、猫狗识别实战(附源码)
【Python深度学习】Tensorflow对半环形数据分类、手写数字识别、猫狗识别实战(附源码)
57 0
|
22天前
|
机器学习/深度学习 数据采集 算法
深度学习在医学影像识别中的应用与挑战
医学影像识别是深度学习技术在医疗领域中的重要应用之一。本文将探讨深度学习在医学影像识别中的应用现状、挑战以及未来发展方向。通过对深度学习算法的介绍和医学影像识别的案例分析,展示了深度学习在提高医学影像诊断准确性、降低医疗成本、改善医疗服务质量等方面的潜力。同时,也指出了在医学影像识别中面临的数据质量、隐私保护、模型可解释性等挑战,并探讨了未来发展中需要解决的技术问题和可能的解决方案。
|
1月前
|
机器学习/深度学习 算法
深度学习在医学影像识别中的应用与挑战
医学影像识别是深度学习在医疗领域中的重要应用之一,通过结合深度学习算法和医学影像技术,可以实现对疾病、肿瘤等病变的自动化识别和分析。本文将从深度学习在医学影像识别中的优势和挑战两个方面展开讨论,旨在探讨深度学习技术在医学影像领域的前景和发展方向。
13 0
|
1月前
|
机器学习/深度学习 算法
深度学习在医疗影像识别中的应用与挑战
传统医疗影像识别技术在临床诊断中存在一定局限性,而深度学习技术的引入为医疗影像识别带来了新的可能性。本文将探讨深度学习在医疗影像识别中的应用现状与挑战,并分析其潜在的未来发展方向。
|
1月前
|
机器学习/深度学习 人工智能 算法
深度学习在医疗影像识别中的应用与挑战
随着人工智能技术的不断发展,深度学习在医疗领域的应用日益广泛。本文将探讨深度学习在医疗影像识别中的重要性及挑战,展示其在提高诊断准确性、加速医疗影像分析等方面的潜力与前景。
8 1
|
1月前
|
机器学习/深度学习 算法 生物认证
基于深度学习的人员指纹身份识别算法matlab仿真
这是一个关于使用深度学习进行指纹识别的算法概述。在matlab2022a环境下,通过预处理指纹图像(灰度化、二值化等)并利用卷积神经网络(CNN)提取特征。CNN架构包含卷积、池化、归一化和全连接层。特征向量通过余弦相似度计算匹配,训练时采用triplet loss优化。部分核心代码展示了加载预训练模型进行测试集分类预测并计算准确率的过程。
|
2月前
|
机器学习/深度学习 算法 算法框架/工具
基于深度学习的交通标志检测和识别(从原理到环境配置/代码运行)
基于深度学习的交通标志检测和识别(从原理到环境配置/代码运行)
184 0
|
2月前
|
文字识别 安全 API
阿里云文字识别OCR的发票凭证识别功能可以通过API接口的形式进行调用
【2月更文挑战第5天】阿里云文字识别OCR的发票凭证识别功能可以通过API接口的形式进行调用
86 5