[工业3D] 主流的3D光学视觉方案及原理

简介: [工业3D] 主流的3D光学视觉方案及原理

一. 前言

传统工业机器视觉中,3D视觉与2D视觉技术的最大区别在于处理的数据类型不同:

  • 2D视觉领域中,主要是处理二维(X,Y)平面图像里的信息(像素的灰度值)—— 像素灰度处理
  • 3D视觉领域中,核心是对3D传感器采集到的三维(X,Y,Z点云数据进行处理,可对物体进行立体测量,获取物体平面度、高度等信息 —— 点云数据处理

二. 主流3D成像方法汇总

目前市面上的测距方法主要分为两个大类:

  1. 被动测量类:单目视觉、双目视觉和多目视觉;
  2. 主动测量类:结构光法、TOF飞行时间法,激光三角测距法;

一般工业领域都是普遍采用激光三角测距法,因为激光三角测距法的精度比较高,抗干扰能力也很强,此外结构光+双目/单目的方式也比较常见。

1、双目立体视觉法(Stereo Vision)

双目立体视觉法的技术原理是通过从两个视点观察同一物体,从而来获得同一物体在不同视角下的图像。通过三角测量原理来计算图像像素间的位置偏差(视差)来获取物体的三维图像,比如把一只手指放在鼻尖前方,左右眼看到手指会有一个错位的效果,这个位置差被称为视差。相机所要拍摄的物体离相机越近,视差越大,离相机越远,视差就越小。由此可以得出,当两个相机的位置等条件已知时,就可以通过计算相似三角形的原理来得出从物体到相机的距离。


2、激光三角传感器原理

3D激光相机利用激光三角反射原理生成点云数据,它由激光发射器镜头以及感光芯片,如图所示:

3D相机中,取代光源的是激光发射器,通过复杂的光学系统设计,激光发射器发出一束激光照射到被测物体表面,反射光经过光学透镜组在相机的感光元件表面形成光斑,不同高度的表面反射形成的光斑位置各不相同。如下图所示,当被检测表面偏高时,测量激光光斑位置会右移;反之,如果被检测表面偏低时,测量激光光斑位置会左移。

而我们实际需要求的就是物体表面①②之间高度差h,具体计算如下所示(以直射式为例):

已知激光和相机之间的夹角θ、像高h’(通过处理图像获得)、焦距 fOH = hcosθAH = hsinθA’JO’AJH为相似三角形,则可通过公式计算高度h

f a + h c o s θ = h ’ a + h s i n θ \frac{f}{a+hcosθ} = \frac{h’}{a+hsinθ}a+hcosθf=a+hsinθh

三维(X,Y,Z)点云数据的获取:

一般我们把激光线方向称为X方向,也就是激光照射出来的那条线定义为X轴,高度为Z方向,通过一次静态拍照,我们可以得到XZ两个方向的数据,Y方向可以通过移动相机或者移动物体,使相机持续不断的拍照,就形成了连续的Y方向数据,最后组合在一起,就是我们所需要的3D点云数据。

注:不同厂家的产品,X/Y方向可能是相反的。

激光三角线扫速度(行频)与传送带速度匹配关系:

v ∗ t μ ∗ t = W w \frac{v * t}{μ * t} = \frac{W}{w}μtvt=wW

其中:v:传送带速度;μ:激光三角线扫速度;W:传送带X方向宽度;w:传送带X方向像素的个数;

注:速度不匹配可能会导致图像出现拉伸情况。

3D激光相机的手动搭建流程:

相机内外参标定(同2D标定)—— 激光器发射的光平面和相机之间的位置关系标定 —— 移动标定(激光器不一定垂直发射到平面的,需要校正)


3、结构光法(Structured Light)

结构光(Structured light):通常采用特定波长的不可见的红外激光作为光源,它发射出来的光经过一定的编码投影在物体上,通过一定算法来计算返回的编码图案的畸变来得到物体的位置和深度信息。根据编码图案不同一般有条纹结构光—enshape ,编码结构光—Mantis Vision, Realsense(F200), 散斑结构光–apple(primesense)

结构光法利用光学三角测量原理,分为单目结构光和双目结构光,如图所示以双目结构光为例:

特定波长的Laser发出的结构光照射在物体表面,其反射的光线被带滤波的camera相机接收,滤波片保证只有该波长的光线能为camera所接受。芯片对接收到的光斑图像进行运算,得出物体的深度数据。


4、飞行时间法(Time of Flight)

TOF是Time of Flight的简写,直译为飞行时间的意思。所谓飞行时间法3D成像,是通过给目标连续发送光脉冲,然后用传感器接收从物体返回的光,通过探测光脉冲的飞行(往返)时间来得到目标物距离,从而获取物体三维轮廓信息。

TOF法根据调制方法的不同,一般可以分为两种:脉冲调制(Pulsed Modulation)和连续波调制(Continuous Wave Modulation)。

TOF深度相机对时间测量的精度要求较高,即使采用最高精度的电子元器件,也很难达到毫米级的精度。因此,在近距离测量领域,尤其是1m范围内,TOF深度相机的精度与其他深度相机相比还具有较大的差距,这限制它在近距离高精度领域的应用,具体应用场景参考:3D视觉传感技术


下雨天,最惬意的事莫过于躺在床上静静听雨,雨中入眠,连梦里也长出青苔。


目录
相关文章
|
7月前
|
传感器 存储 前端开发
视觉SLAM 关键技术与发展概述
最近看了北京理工大学的课程《智能车辆概述与应用》,感觉入门角度讲的还不错的,于是通过本文记录关键内容。
150 0
|
传感器 机器学习/深度学习 编解码
自动驾驶 | 毫米波雷达视觉融合方案综述(数据级/决策级/特征级融合)
自动驾驶在复杂场景下的目标检测任务至关重要,而毫米波雷达和视觉融合是确保障碍物精准检测的主流解决方案。本论文详细介绍了基于毫米波雷达和视觉融合的障碍物检测方法,从任务介绍、评估标准和数据集三方面展开。
自动驾驶 | 毫米波雷达视觉融合方案综述(数据级/决策级/特征级融合)
|
编解码 计算机视觉 异构计算
|
机器学习/深度学习 移动开发 异构计算
|
机器学习/深度学习 人工智能 算法
Orbeus 夏威:「嵌入式」和「云」是计算机视觉未来发展的两大方向
2012 年,Orbeus 的两位来自波士顿大学的联合创始人中止了原定的博士项目并拒绝了来自 Google 的 offer,毅然走向了创业的道路。2014 年,他们推出了一款手机终端图片搜索与管理软件 PhotoTime,早于 Google 发布的同类产品 Google Photos,甫一首发就被苹果商店选为当季最佳新应用。创业三年后,这家硅谷的明星创业公司被亚马逊所收购,开始了一段新的征程。
640 0
Orbeus 夏威:「嵌入式」和「云」是计算机视觉未来发展的两大方向
|
机器学习/深度学习 编解码 人工智能
工业视觉智能实战经验之IVI算法框架2.0
工业视觉智能团队在交付了多个工业视觉智能质检项目后,发现了工业视觉智能的共性问题和解法,打造了工业视觉智能平台,通过平台的方式积累和提升工业视觉的通用能力。在平台建设上最核心的能力是算法能力。算法能力包括不断增强的单点算法能力和不断扩充的新算法能力。那么如何将算法能力输出到平台呢?答案是算法框架。算法框架是算法能力的载体,通过它能够将能力输出到平台。
工业视觉智能实战经验之IVI算法框架2.0
|
人工智能 监控 物联网
嵌入式视觉,边缘AI驱动器智能工业
智能技术几乎遍及各个领域,从公共基础设施和运输到工业,农业和家庭环境。智能系统依靠传感器来检测从中获取可操作智能的数据。这些传感器越来越多地包括用于捕获图像以进行检查,监控和分析的嵌入式视觉。例如,发现生产线上的产品缺陷,通过无人机摄像机调查农田或启用自动驾驶汽车。
1744 0
|
传感器 机器学习/深度学习 算法
嵌入式模拟智能为机器人提供了新的自主水平
机器人不仅需要人工智能(AI)才能实现自主。他们还需要大量传感器,传感器融合以及边缘的实时推理。之前我们已经尝到了深度卷积神经网络的好处,如今来自激光雷达的更高数据处理的需求正在推动神经网络到新拓扑以获得自主。
1412 0
|
人工智能 计算机视觉 测试技术