Pytorch手势识别

简介: 笔记

一. 数据集介绍


1.数据集可以在kaggle上面下载地址.

2.识别的手势是26个英文字母,如下所示,图片中好像缺少了一个Z。

30.png

3.数据是csv格式的,第一列是label,其余的像素,也就是我们的图片数据,28*28大小的。

31.png

二. 构造DataLoader


1.由于数据是csv格式,和之前图片的有所不同,之前直接重写Dataset类就可以加载我们的数据,这次其实可以重写Dataset类,但是我这样做的时候,训练的时候准确率一直只有0.07左右,这次我们需要使用另外一种比较简单的方法,来构造数据集


2.利用TensorDataset函数将tensor数据变成TensorDataset数据,也就是将数据变成pytorch可以分批次加载的数据。

train = pd.read_csv('../input/sign-language-mnist/sign_mnist_train.csv',dtype=np.float32)    #读取csv
y = train.label.values                  #label
x = train.loc[:,train.columns!= 'label'].values / 255     #图片数据
train_x,test_x,train_y,test_y = train_test_split(x,y,test_size=0.2,random_state=42)     #分成数据集,测试集
print(test_x.shape) 
train_x = torch.from_numpy(train_x)          #转换成tensor
train_y = torch.from_numpy(train_y).type(torch.LongTensor)    #转换成Longtensor,交叉熵损失函数的label需要long类型的数据
test_x = torch.from_numpy(test_x)
test_y = torch.from_numpy(test_y).type(torch.LongTensor)
train = TensorDataset(train_x,train_y)     #转换成Dataset,类似于TensorFlow的from_tensor_slices
test = TensorDataset(test_x,test_y)
train_loader = DataLoader(train,batch_size=100,shuffle=False,drop_last=True)  # 构造DataLoader
test_loader = DataLoader(test,batch_size=100,shuffle=False,drop_last=True)

三. 构造网络


构造网络这比较简单,由于没有合适的GPU,只能使用一些比较简单的网络。

这里也可以使用残差网络,随便学一下什么是残差网络,残差网络在很深的网络中经常用到,非常重要的一个网络结构。

class CNN(nn.Module):
    def __init__(self):
        super(CNN, self).__init__()
        self.layers1 = nn.Sequential(
            nn.Conv2d(1,16,kernel_size=3,stride=1,padding=1),
            nn.BatchNorm2d(16),
            nn.ReLU(inplace=True)
        )
        self.layers2 = nn.Sequential(
            nn.Conv2d(16,32,kernel_size=3,stride=1,padding=1),
            nn.BatchNorm2d(32),
            nn.ReLU(inplace=True),
            nn.MaxPool2d(kernel_size=2,stride=2)
        )
        self.layers3 = nn.Sequential(
            nn.Conv2d(32,64,kernel_size=3,stride=1,padding=1),
            nn.BatchNorm2d(64),
            nn.ReLU(inplace=True),
            nn.MaxPool2d(kernel_size=2, stride=2)
        )
        self.layers4 = nn.Sequential(
            nn.Conv2d(64,128,kernel_size=3,stride=1,padding=1),
            nn.BatchNorm2d(128),
            nn.ReLU(inplace=True),
        )
        self.fc = nn.Sequential(
            nn.Linear(7*7*128,1024),
            nn.ReLU(inplace=True),
            nn.Linear(1024,100),
            nn.ReLU(inplace=True),
            nn.Linear(100,26)
        )
    def forward(self, x):
        x = self.layers1(x)
        x = self.layers2(x)
        x = self.layers3(x)
        x = self.layers4(x)
        x = x.view(x.size(0),-1)
        x = self.fc(x)
        return x

32.png

四. 训练网络


1.在训练网络的时候,这次我们分成了训练集合测试集,和之前写有些不一样,但也都差不多,

2.每训练50个epoch,就在测试集上测试一下准确率,这样可以明确模型的好与坏,精度如何。

3.最后如果准确率大于0.983后,就退出训练,训练太久而准确率没有太多的提升,还不如提前结束训练。

error = nn.CrossEntropyLoss()
optimizer = torch.optim.SGD(cnn.parameters(),lr=0.1)
for epochs in range(100):
    for i ,(img,label) in enumerate(train_loader):
        img = img.view(100,1,28,28)
        img = Variable(img)
        label = Variable(label)
        optimizer.zero_grad()
        output = cnn(img)
        loss = error(output,label)
        loss.backward()
        optimizer.step()
        if i %50 == 0:    #测试模型
            accuracy = 0
            for x,y in test_loader:
                x = x.view(100,1,28,28)
                x = Variable(x)
                out = cnn(x)
                pre = torch.max(out.data,1)[1]
                accuracy += (pre == y).sum()
            print('accuracy:',accuracy.item()/(5491))
            if(accuracy.item()/(5491)>0.975):
                torch.save(cnn.state_dict(),'model.pth')
            if(accuracy.item()/5491 > 0.983):
                break

最后打印一下训练的log,训练到最后准确率基本上没有变化了。

33.png

完整代码可在GitHub上面下载地址.

Thank for your reading !!!


公众号:FPGA之旅

目录
相关文章
|
8月前
|
机器学习/深度学习 分布式计算 算法
规则引擎开发现在已经演化成算法引擎了
规则引擎是一种基于专家知识的程序,用于解决复杂决策问题。它通过条件与动作的匹配,实现自动化判断,广泛应用于金融、电商等领域。核心功能包括规则管理、推理算法(如Rete算法)及决策模型,如DMN标准,提升了建模能力与执行效率。
|
11月前
从刷题中抽象出来的二分法思维模型
本文总结了二分法的核心理解与应用技巧,探讨了其适用条件与逻辑构建方法。通过明确单调性与边界性质,帮助读者从“凭感觉写”进阶到“有依据设计”,提升对查找、边界与插入位置等问题的掌控力。
294 1
|
5月前
|
人工智能 JavaScript 程序员
Wispr Flow 平替, 这款开源中文语音助手,程序员真该试试,本地离线的中文语音输入神器来了(开源白嫖版)
小华同学推荐开源神器「蛐蛐QuQu」:本地语音识别+AI润色,中文友好、隐私安全,免订阅费替代Wispr Flow。支持通义千问等国产模型,程序员专属语音工作流,写代码、记会议、回邮件效率翻倍!
822 0
Wispr Flow 平替, 这款开源中文语音助手,程序员真该试试,本地离线的中文语音输入神器来了(开源白嫖版)
|
并行计算 PyTorch 算法框架/工具
融合AMD与NVIDIA GPU集群的MLOps:异构计算环境中的分布式训练架构实践
本文探讨了如何通过技术手段混合使用AMD与NVIDIA GPU集群以支持PyTorch分布式训练。面对CUDA与ROCm框架互操作性不足的问题,文章提出利用UCC和UCX等统一通信框架实现高效数据传输,并在异构Kubernetes集群中部署任务。通过解决轻度与强度异构环境下的挑战,如计算能力不平衡、内存容量差异及通信性能优化,文章展示了如何无需重构代码即可充分利用异构硬件资源。尽管存在RDMA验证不足、通信性能次优等局限性,但该方案为最大化GPU资源利用率、降低供应商锁定提供了可行路径。源代码已公开,供读者参考实践。
1316 3
融合AMD与NVIDIA GPU集群的MLOps:异构计算环境中的分布式训练架构实践
|
人工智能 大数据 云计算
软件即服务(SaaS)的兴起:技术变革引领商业新纪元
【6月更文挑战第21天】SaaS兴起引领商业变革: 互联网与云计算催生了SaaS模式,降低企业IT成本,提供按需订阅、免安装维护的软件服务。多租户架构保证数据安全,实时更新促进效率与创新。SaaS重塑商业模式,降低创业门槛,助力企业灵活应对市场变化,驱动数字化转型和行业发展。未来,SaaS将继续扮演创新推手角色。
|
机器学习/深度学习 并行计算 计算机视觉
Jurgen、曼宁等大佬新作:MoE重塑6年前的Universal Transformer,高效升级
本文介绍了一种新型Transformer架构,旨在解决Universal Transformer (UT) 在参数-计算效率上的问题。MoEUT结合了Mixture-of-Experts (MoE) 方法和UT的优点,通过MoE Feedforward Blocks、MoE Self-Attention Layers、Layer Grouping及Peri-LayerNorm等技术创新,实现了更高效的计算和内存使用。实验结果显示,MoEUT在多个语言建模和代码生成任务上显著优于标准Transformer,且计算资源需求更低。
528 5
|
Ubuntu Linux
Ubuntu 16.04下无法安装.deb的解决方法
希望以上策略能有效协助您克服在Ubuntu 16.04中安装.deb文件时遇到的挑战。
865 0
|
测试技术 语音技术 Android开发
起飞,纯本地实时语音转文字!
起飞,纯本地实时语音转文字!
1101 3
|
SQL 人工智能 安全
如何快速提升编码效率: GitHub Copilot的入门教程(上)
如何快速提升编码效率: GitHub Copilot的入门教程
|
机器学习/深度学习