Baxter实战 (五)安装openNI2,NiTE-2并实现kinect 2实现动作跟随

本文涉及的产品
Redis 开源版,标准版 2GB
推荐场景:
搭建游戏排行榜
云数据库 Tair(兼容Redis),内存型 2GB
资源编排,不限时长
简介: Baxter实战 (五)安装openNI2,NiTE-2并实现kinect 2实现动作跟随

Kinect v1

1.安装OpenNI

cd
git clone https://github.com/OpenNI/OpenNI.git
cd OpenNI/Platform/Linux/CreateRedist/
chmod +x RedistMaker
./RedistMaker
cd ../Redist/OpenNI-Bin-Dev-Linux-x64-v1.5.7.10/
sudo ./install.sh

2.安装SensorKinect:

cd
git clone git://github.com/avin2/SensorKinect.git
cd SensorKinect/Platform/Linux/CreateRedist/
chmod +x RedistMaker
./RedistMaker
在SensorKinect的Bin目录下解压出Sensor-Bin-Linux-x64...
cd ~/SensorKinect/Bin/Sensor-Bin-Linux-x64-v5.1.2.1
chmod +x install.sh
sudo ./install.sh

3.安装Nite

 cd NITE-Bin-Dev-Linux-x64-v1.5.2.23
 sudo ./install.sh

ROS组件:

在安装了所有次要库之后,我们可以安装OpenNI使用所需的ros-core-.。但是我们必须删除之前的一个库,否则会出现一些问题:

sudo apt-get remove libopenni-sensor-pointclouds0

4.安装ROS-Kinect-driver

sudo apt-get install ros-indigo-openni-launch
sudo apt-get install ros-indigo-openni-camera
# 移除
sudo apt-get remove ros-indigo-openni-launch
sudo apt-get remove ros-indigo-openni-camera

5.安装openni_tracker到工作空间下:

cd ~/ros_ws/src
git clone https://github.com/ros-drivers/openni_tracker.git 
cd ..
catkin_make

6.测试:

Terminal_1:

roslaunch openni_launch openni.launch

Terminal_2:

rosrun openni_tracker openni_tracker

Terminal_3:

rosrun rviz rviz

Kinect v2

1.NiViewer2

cd ~/libfreenect2/build
sudo apt-get install openni2-utils
cmake ..
make && sudo make install (optional)
sudo make install-openni2
NiViewer2

在Baxter实战 (四)里面我有安装OpenNI,网上也有别的安装方式参考安装OpenNI,https://structure.io/openni

cd 
cd OpenNI-Linux-x64-2.2/
sudo ./install.sh

生成的环境变量拷到.bashrc

cd  ~

sudo gedit .bashrc

4.下载NiTE-2.0.0并解压:链接:https://pan.baidu.com/s/1NZkCL6--MfZORBQu9rTqUw 提取码:46pg

cd NiTE-2.0.0
sudo ./install.sh
生成NiTedevEnvironment文件,生成的环境变量拷到.bashrc 
gedit ./Samples/Bin/OpenNI.ini
加上一句Repository=/usr/lib/OpenNI2/Drivers(就是安装openni2生成的driver路径)
#################
[Drivers]
Repository=/usr/lib/OpenNI2/Drivers
#################
cd ./Samples/Bin 
./UserViewer

关键的一步,我当时运行UserViewer也是打不开设备,所以才想到这一步的,cd到NiTE-2.0.0/Samples/Bin/下,看到有一个libOpenNI2.so,这是安装包自带的一个当然不行,于是我把OpenNI-Linux-x86-2.2/Redist下的libopenNI.so考过来replace掉原来的那个文件,在进到NiTE-2.0.0/Samples/Bin/下跑UserViewer时出现了想要的深度图,在前面移动一下还有Tracking的标签。

这一步运行成功之后不要做ros的同学到这里就可以了。

5.ROS组件:

在安装了所有次要库之后,我们可以安装OpenNI使用所需的ros-core-.。但是我们必须删除之前的一个库,否则会出现一些问题:

sudo apt-get remove libopenni-sensor-pointclouds0

6.安装ROS-Kinect-driver

sudo apt-get install ros-indigo-openni2-launch
sudo apt-get install ros-indigo-openni2-camera
# 移除
sudo apt-get remove ros-indigo-openni2-launch
sudo apt-get remove ros-indigo-openni2-camera

7.安装openni_tracker到工作空间下:

cd ~/ros_ws/src
git clone https://github.com/ros-drivers/openni2_tracker.git 
cd ..
catkin_make

报错:

Could not find a package configuration file provided by "orocos_kdl" with

 any of the following names:

   orocos_kdlConfig.cmake

   orocos_kdl-config.cmake

将openni2_tracker下面CMakeLists.txt文件中下面这个命令

find_package(catkin REQUIRED COMPONENTS orocos_kdl )

改为:

 find_package(catkin REQUIRED COMPONENTS )
 find_package(orocos_kdl REQUIRED)

8.测试:

Terminal_1:

roslaunch openni2_launch openni2.launch

报错:Unsupported IR video mode - Resolution: 640x480@30Hz Format: Gray16,这个没有关系,只是表示当前的这个不支持color和ir图像模式,出现这个提示正常。

Terminal_2:这个~/NiTE-2.0.0/Redist终端目录下面执行

rosrun openni2_tracker openni2_tracker

Terminal_3:

rosrun rviz rviz

显示:

再打开终端运行:

rosrun kinect_based_arm_tracking tf_listen_v8_puber.py

发现坐标变换这个包没有写。凉凉。

https://github.com/birlrobotics/birl_baxter_demos/tree/master/kinect_based_arm_tracking

> 我的微信公众号名称深度学习与先进智能决策

> 微信公众号ID:MultiAgent1024

> 公众号介绍:主要研究分享深度学习、机器博弈、强化学习等相关内容!期待您的关注,欢迎一起学习交流进步!

相关实践学习
基于Redis实现在线游戏积分排行榜
本场景将介绍如何基于Redis数据库实现在线游戏中的游戏玩家积分排行榜功能。
云数据库 Redis 版使用教程
云数据库Redis版是兼容Redis协议标准的、提供持久化的内存数据库服务,基于高可靠双机热备架构及可无缝扩展的集群架构,满足高读写性能场景及容量需弹性变配的业务需求。 产品详情:https://www.aliyun.com/product/kvstore     ------------------------------------------------------------------------- 阿里云数据库体验:数据库上云实战 开发者云会免费提供一台带自建MySQL的源数据库 ECS 实例和一台目标数据库 RDS实例。跟着指引,您可以一步步实现将ECS自建数据库迁移到目标数据库RDS。 点击下方链接,领取免费ECS&RDS资源,30分钟完成数据库上云实战!https://developer.aliyun.com/adc/scenario/51eefbd1894e42f6bb9acacadd3f9121?spm=a2c6h.13788135.J_3257954370.9.4ba85f24utseFl
相关文章
|
图形学
Unity射线检测的避坑指南
Unity射线检测的避坑指南
|
5月前
|
人工智能 算法 定位技术
【推荐100个unity插件之1】2d使用A*Pathfinding插件实现敌人AI,并自动躲避障碍物
【推荐100个unity插件之1】2d使用A*Pathfinding插件实现敌人AI,并自动躲避障碍物
116 0
|
图形学
【unity每日一记】--控制游戏人物移动的细节
【unity每日一记】--控制游戏人物移动的细节
193 0
|
机器学习/深度学习 自然语言处理 算法
谷歌让机器人充当大语言模型的手和眼,一个任务拆解成16个动作一气呵成
谷歌让机器人充当大语言模型的手和眼,一个任务拆解成16个动作一气呵成
261 0
|
存储 传感器 编解码
设计全新动作捕捉,构建水下3D系统,《阿凡达2》的特效背后藏了哪些秘密?
上映一周,票房破5亿。 暌违13年,詹姆斯·卡梅隆终于带来了《阿凡达2:水之道》。
1691 0
设计全新动作捕捉,构建水下3D系统,《阿凡达2》的特效背后藏了哪些秘密?
|
网络协议 算法 机器人
Halcon标定系列(3):我个人总结的“眼在手外“和“眼在手上”的心得笔记
Halcon标定系列(3):我个人总结的“眼在手外“和“眼在手上”的心得笔记
2916 0
Halcon标定系列(3):我个人总结的“眼在手外“和“眼在手上”的心得笔记
|
存储 传感器 编解码
模拟变色龙,软体机器人也能实时根据背景变色!依赖温度实现,研究登上Nature子刊
模拟变色龙,软体机器人也能实时根据背景变色!依赖温度实现,研究登上Nature子刊
180 0
|
机器学习/深度学习 PyTorch 算法框架/工具
北大图灵班本科生带来动画CG福音,「最懂骨骼的卷积网络」,无需配对样本实现动作迁移 | SIGGRAPH
云栖号资讯:【点击查看更多行业资讯】在这里您可以找到不同行业的第一手的上云资讯,还在等什么,快来! 我有一个动画形象,我有一套人体动作,可想要把它们组合成真正的动画,可不是 1+1 这么简单。 别看这体型迥异的三位动作整齐划一,支撑动画的骨架却差异甚大。
北大图灵班本科生带来动画CG福音,「最懂骨骼的卷积网络」,无需配对样本实现动作迁移 | SIGGRAPH
|
算法 机器人 大数据
只需看一眼,伯克利最新机器人就可以copy你的动作!
通过观察另一个人的做法来学习一项新技能,即模仿的能力,是人类和动物智力的关键部分。我们能让机器人做同样的事情吗?
1394 0
下一篇
无影云桌面