视频分类数据集转图片分类数据集在vgg16上的分类效果

简介: 视频分类数据集转图片分类数据集在vgg16上的分类效果

数据集处理

最近在做的实验需要将视频分类数据集抽帧变成图片分类的数据集,然后放入已有模型进行训练和评估。


该篇参考博文详细介绍了搭建视频分类模型的过程,但主要以处理数据集为主。所以我的实验借鉴了这篇博文对数据集处理的方法,但对个别内容有修改,并补充了一些理解。


便于处理,只取了UCF101的前10个类别,主要为了测试视频抽帧处理成图片分类数据集的效果,暂不考虑其他因素。


要点一:给每一个视频加标签


大佬博客是按照视频类名划分出标签的,但实际也可以按照视频后面给出的数字划分,这样,后面就不用单独将文字标签转为数字标签了。


大佬划分:

# 为训练视频创建标签
train_video_tag = []#标签列表
for i in range(train.shape[0]):#shape[0],遍历每条视频名(从后往前)
    train_video_tag.append(train['video_name'][i].split('/')[0])#按照数据帧第['video_name']列每一行的“/”划分取第0维并加入标签列表
train['tag'] = train_video_tag#给数据帧增加一列并起名类别,把标签列表赋值给这列
train.head()#显示前5行

效果:

1ecd1b2606ed46e9956a89f231c9802c.png

按数字划分:

# 为训练视频创建标签
train_video_tag = []#标签列表
for i in range(train.shape[0]):
    train_video_tag.append(train['video_name'][i].split('avi')[1])
train['tag'] = train_video_tag
train.head()

效果:

1ecd1b2606ed46e9956a89f231c9802c.png

我觉得这里就是看自己需要选择,而我绕了一圈用了大佬的方法。

要点二:从训练组视频里提取帧

这块是核心代码,但是博主代码的缩进问题还是什么原因一直出不来结果。于是我整个换掉了,非常成功。参考

# 保存从训练视频中提取的帧
for i in tqdm(range(train.shape[0])):#tqmd进度条提取过程
    count = 0
    videoFile = train['trainvideo_name'][i]#数据帧里视频名
    # 全局变量
    VIDEO_PATH = 'Desktop/UCF10/videos_10/'+videoFile.split(' ')[0]# 视频地址,用空格划分出了视频名
    EXTRACT_FOLDER = 'Desktop/UCF10/train_1/' # 存放帧图片的位置 
    EXTRACT_FREQUENCY = 50 # 帧提取频率(每秒划过多少帧,一个视频是25帧/s,故抽到的帧数少)
    def extract_frames(video_path, dst_folder, index):
        # 主操作
        import cv2
        video = cv2.VideoCapture()#打开视频或摄像头等
        if not video.open(video_path):
            print("can not open the video")
            exit(1)
        count = 1
        while True:
            _, frame = video.read()#按帧读取视频
            #视频读完退出
            if frame is None:
                break
            #每过50帧抽取一张
            if count % EXTRACT_FREQUENCY == 0:
                #帧的存储格式,根据需要改,最好和视频名保持一致
                save_path ='Desktop/UCF10/train_1/'+videoFile.split('/')[1].split(' ')[0] +"_frame%d.jpg" % count
                cv2.imwrite(save_path, frame)#存帧
            count += 1
        video.release()
        # 打印出所提取帧的总数
        print("Totally save {:d} pics".format(index-1))
    def main():
        '''
        批量生成图片,可以不要这块代码
        '''
    #     # 递归删除之前存放帧图片的文件夹,并新建一个
    #     import shutil
    #     try:
    #         shutil.rmtree(EXTRACT_FOLDER)
    #     except OSError:
    #         pass
    #     import os
    #     os.mkdir(EXTRACT_FOLDER)
        # 抽取帧图片,并保存到指定路径
        extract_frames(VIDEO_PATH, EXTRACT_FOLDER, 1)
    if __name__ == '__main__':
        main()

效果:

1ecd1b2606ed46e9956a89f231c9802c.png

要点三:把帧的名称和相对应的标签保存在.csv文件里。创建这个文件可以帮助我们读取在下一阶段要用到的帧

from tqdm import tqdm
from glob import glob
import pandas as pd
# 获得所有图像的名称
images = glob("Desktop/UCF10/train_1_50/*.jpg")
train_image = []
train_class = []
for i in tqdm(range(len(images))):
    # 创建图像的名称
    train_image.append(images[i].split('50\\')[1])
    # 创建图像的标签
    train_class.append(images[i].split('v_')[1].split('_')[0])
    # 将图像和它们的标签保存到数据帧里
    train_data = pd.DataFrame()
    train_data['image'] = train_image
    train_data['class'] = train_class
    # 将数据帧转为csv.文件
    train_data.to_csv('Desktop/UCF10/train_new.csv',header=True, index=False)

这步在创建图像和标签名称那里的字符串划分可以适当修改,我用大佬的划分不出来。。。

读取该csv文件:

import pandas as pd
train = pd.read_csv('Desktop/UCF10/train_new.csv')
train.head()

效果:

1ecd1b2606ed46e9956a89f231c9802c.png

要点四:利用这个.csv文件,提取出帧储存为一个Numpy 数组。这里做了改进多张图片转成一个.npy文件存储

要点五:划分训练集验证集及相应标签

import pandas as pd
from sklearn.model_selection import train_test_split
#读取存有图片名和对应类别名的.csv文件
train = pd.read_csv('train_new.csv')
# 区分目标
y = train['class']
# 创建训练集和验证集
X_train, X_test, y_train, y_test = train_test_split(X, y, random_state=42, test_size=0.2, stratify = y)

之后大佬的文章是搭建vgg16的分类模型,并给训练集和验证集创建了目标变量的数据列。但我只需要数据集,所以把上面的结果保存即可。

保存训练集和验证集

import numpy as np
np.save("Desktop/UCF10/train1/Xtr01", X_train)
np.save("Desktop/UCF10/train1/Ytr01", y_train)
np.save("Desktop/UCF10/test1/Xte01",  X_test)
np.save("Desktop/UCF10/test1/Yte01", y_test)

最后,将文字标签转换成数字标签,如果划分标签的时候按照数字划分,就不用这一步。


数据集放入模型测试


已有vgg16模型的超参设置是用来跑cifar_10的,learning_rate = 0.02,batch_size = 100,epoch = 1,momentuma = 0.5


但输入这个处理过的数据集,结果,损失是nan,迭代一次精度只有11%左右,而且每次测试精度都一模一样。


于是调整超参数:learning_rate = 0.002,batch_size = 20,epoch = 1,momentuma = 0.5


得到测试的损失和精度分别为:

1ecd1b2606ed46e9956a89f231c9802c.png

然后可以查看下真实标签和预测标签的结果

1ecd1b2606ed46e9956a89f231c9802c.png

2020062310470442.png

查看实际上没什么意义,老师说看标签对不对,其实看测试精度就可以了。

相关文章
|
Shell Linux 数据库
【Shell 命令集合 系统管理 】Linux 创建新用户的命令 useradd命令 使用指南
【Shell 命令集合 系统管理 】Linux 创建新用户的命令 useradd命令 使用指南
528 1
2025年 | 3月云大使推广奖励规则
简介: 【近期云大使规则升级】①3月采购季,云大使推荐下单人数或金额达标都可获得额外奖, 最高8.8万元。②企业云大使可推广可提现,还可免除提现税费。③优化推广奖励限制,增加返利订单类目。④提升首购后订单返利比例。⑤新增沉睡用户返利 。
|
消息中间件 设计模式 安全
《C++中高效线程安全的生产者 - 消费者模型设计秘籍》
生产者-消费者模型是现代C++多线程编程中的经典设计模式,广泛应用于网络服务器、消息队列等场景。该模型通过生产者生成数据、消费者处理数据的方式,解决多线程间的数据交互问题。设计高效且线程安全的生产者-消费者模型,需考虑线程安全、选择合适的共享数据结构、使用互斥锁和条件变量、优化性能及处理异常情况,以确保程序的稳定性和性能。
273 8
|
8月前
|
人工智能 自然语言处理 算法
腾讯赋能,销售易CRM将引领企业数字化增长新范式
销售易作为国内领先的CRM服务商,自2017年获得腾讯战略投资后,深度融合腾讯云、AI等技术,构建“产品+生态”双重竞争力。依托腾讯云的全球化基础设施和AI算法,销售易实现智能化客户洞察、自动化流程引擎和实时数据分析,为企业提供全场景、智能化的客户管理解决方案。通过与微信、企业微信无缝对接,销售易重塑了客户连接体验,助力企业在社交化客户管理和私域运营中取得突破。此外,销售易深耕制造、医疗等行业,结合腾讯产业互联网资源,打造垂直场景解决方案,推动中国CRM行业向更高维度进化。在腾讯SaaS生态的支持下,销售易不仅提供数字化系统,更成为企业智能业务中枢,助力长效增长。
|
网络架构
|
机器学习/深度学习 数据采集 TensorFlow
使用Python实现深度学习模型:智能环境监测与预警
【8月更文挑战第11天】 使用Python实现深度学习模型:智能环境监测与预警
1333 2
|
前端开发 NoSQL Redis
网页设计,若依修改05(It must be done)-----强退用户
网页设计,若依修改05(It must be done)-----强退用户
|
网络协议 Windows
同时使用有线网上内网、无线网上外网
方法一、 利用有线访问局域网数据库等,用无线网络访问外网,这里提供一种方法可以实现,可编写bat文件,并在cmd中执行: route delete 0.0.0.0 route add 0.0.0.0 mask 0.0.0.0 172.20.1.254 route add 172.20.36.0 mask 255.255.255.0 172.20.36.254 解释一下: 其中172.20.1.254为无线网网关,172.20.36.254为有线网网关。
4240 0
|
JSON Linux Shell
vscode c++ 使用问题汇总
vscode c++ 使用问题汇总
442 0
下一篇
oss云网关配置