手部关键点识别+分类综合项目应用[附代码]

简介: 笔记

环境:pytorch


文件夹说明


applications-->存放检测项目定义的函数


components-->


                       -->classify_imagenet:存放分类模型网络和权重文件及分类标签


                       -->hand_detect:存放yolov3手部检测网络和权重


                       -->hand_keypoints:存放关键点检测网络和权重


lib--->


           -->hand_lib:存放一些定义的函数和配置文件


materials-->


               -->audio:语音包(比如正在识别请等待、识别的物体是这之类的)【可以自己再录】



使用步骤


1.下载三个权重文件,百度云:

权重说明:


hand_416-2021-02-20.pt  # 手部目标检测(不是关键点哦),放在components/hand_detect/weigths里

ReXNetV1-size-256-wingloss102-0.122.pth # 21点关键点检测,放在components/hand_keypoints/weights里

imagenet_size-256_20210409.pth  # 分类检测,放在components/classify_imagenet/weights里


2.进入lib-->hand_lib-->cfg文件夹:


       将下载的三个权重文件放在components中三个文件中的weights文件里面。

20.png

   修改handpose.cfg配置文件:


修改说明【注意:填写完路径以后,一定不要在后面加注释,不然会报错,可以在上面或许下面加注释】,如果需要检测本地视频,可以去applications-->handpose_local_app.py直接找到VideoCaptrue,修改为自己的视频路径


       detect_model_path=    # 填写yolov3手部目标检测模型路径


  handpose_x_model_path= # 关键点检测权重路径

 

  classify_model_path =  # 分类权重路径

      camera_id = 0  # 摄像头ID,0是自己笔记本的


21.png

4.运行main.py

可以看一下效果~~imagenet里没有剪刀这个类,我只是随便试了一下~


22.gif

目录
打赏
0
0
0
0
77
分享
相关文章
计算机视觉五大核心研究任务全解:分类识别、检测分割、人体分析、三维视觉、视频分析
计算机视觉五大核心研究任务全解:分类识别、检测分割、人体分析、三维视觉、视频分析
1095 1
【网安AIGC专题11.1】11 Coreset-C 主动学习:特征选择+11种采样方法+CodeBERT、GraphCodeBERT+多分类(问题分类)二元分类(克隆检测)非分类任务(代码总结)
【网安AIGC专题11.1】11 Coreset-C 主动学习:特征选择+11种采样方法+CodeBERT、GraphCodeBERT+多分类(问题分类)二元分类(克隆检测)非分类任务(代码总结)
232 0
nuScenes 纯视觉新SOTA!SOLOFusion:时序立体3D检测的新观点和基线
虽然最近基于纯视觉的3D检测方法利用了时序信息,但它们使用的有限历史信息限制了时序融合性能提升的上限。论文观察到现有多帧图像融合的本质是时序立体匹配,且目前算法的性能受到以下因素影响:1)匹配分辨率的低粒度;2)有限历史信息的使用产生的次优多目设置。
nuScenes 纯视觉新SOTA!SOLOFusion:时序立体3D检测的新观点和基线
一文尽览 | 首篇Transformer在3D点云中的应用综述(检测/跟踪/分割/降噪/补全)(下)
Transformer 一直是自然语言处理 (NLP) 和计算机视觉 (CV) 的核心。NLP 和 CV 的巨大成功激发了研究者对 Transformer 在点云处理中的使用的探索。但是,Transformer如何应对点云的不规则性和无序性?
一文尽览 | 首篇Transformer在3D点云中的应用综述(检测/跟踪/分割/降噪/补全)(下)

热门文章

最新文章

AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等