[工业3D] 主流的3D光学视觉方案及原理

简介: [工业3D] 主流的3D光学视觉方案及原理

一. 前言

传统工业机器视觉中,3D视觉与2D视觉技术的最大区别在于处理的数据类型不同:

  • 2D视觉领域中,主要是处理二维(X,Y)平面图像里的信息(像素的灰度值)—— 像素灰度处理
  • 3D视觉领域中,核心是对3D传感器采集到的三维(X,Y,Z点云数据进行处理,可对物体进行立体测量,获取物体平面度、高度等信息 —— 点云数据处理

二. 主流3D成像方法汇总

目前市面上的测距方法主要分为两个大类:

  1. 被动测量类:单目视觉、双目视觉和多目视觉;
  2. 主动测量类:结构光法、TOF飞行时间法,激光三角测距法;

一般工业领域都是普遍采用激光三角测距法,因为激光三角测距法的精度比较高,抗干扰能力也很强,此外结构光+双目/单目的方式也比较常见。

1、双目立体视觉法(Stereo Vision)

双目立体视觉法的技术原理是通过从两个视点观察同一物体,从而来获得同一物体在不同视角下的图像。通过三角测量原理来计算图像像素间的位置偏差(视差)来获取物体的三维图像,比如把一只手指放在鼻尖前方,左右眼看到手指会有一个错位的效果,这个位置差被称为视差。相机所要拍摄的物体离相机越近,视差越大,离相机越远,视差就越小。由此可以得出,当两个相机的位置等条件已知时,就可以通过计算相似三角形的原理来得出从物体到相机的距离。


2、激光三角传感器原理

3D激光相机利用激光三角反射原理生成点云数据,它由激光发射器镜头以及感光芯片,如图所示:

3D相机中,取代光源的是激光发射器,通过复杂的光学系统设计,激光发射器发出一束激光照射到被测物体表面,反射光经过光学透镜组在相机的感光元件表面形成光斑,不同高度的表面反射形成的光斑位置各不相同。如下图所示,当被检测表面偏高时,测量激光光斑位置会右移;反之,如果被检测表面偏低时,测量激光光斑位置会左移。

而我们实际需要求的就是物体表面①②之间高度差h,具体计算如下所示(以直射式为例):

已知激光和相机之间的夹角θ、像高h’(通过处理图像获得)、焦距 fOH = hcosθAH = hsinθA’JO’AJH为相似三角形,则可通过公式计算高度h

f a + h c o s θ = h ’ a + h s i n θ \frac{f}{a+hcosθ} = \frac{h’}{a+hsinθ}a+hcosθf=a+hsinθh

三维(X,Y,Z)点云数据的获取:

一般我们把激光线方向称为X方向,也就是激光照射出来的那条线定义为X轴,高度为Z方向,通过一次静态拍照,我们可以得到XZ两个方向的数据,Y方向可以通过移动相机或者移动物体,使相机持续不断的拍照,就形成了连续的Y方向数据,最后组合在一起,就是我们所需要的3D点云数据。

注:不同厂家的产品,X/Y方向可能是相反的。

激光三角线扫速度(行频)与传送带速度匹配关系:

v ∗ t μ ∗ t = W w \frac{v * t}{μ * t} = \frac{W}{w}μtvt=wW

其中:v:传送带速度;μ:激光三角线扫速度;W:传送带X方向宽度;w:传送带X方向像素的个数;

注:速度不匹配可能会导致图像出现拉伸情况。

3D激光相机的手动搭建流程:

相机内外参标定(同2D标定)—— 激光器发射的光平面和相机之间的位置关系标定 —— 移动标定(激光器不一定垂直发射到平面的,需要校正)


3、结构光法(Structured Light)

结构光(Structured light):通常采用特定波长的不可见的红外激光作为光源,它发射出来的光经过一定的编码投影在物体上,通过一定算法来计算返回的编码图案的畸变来得到物体的位置和深度信息。根据编码图案不同一般有条纹结构光—enshape ,编码结构光—Mantis Vision, Realsense(F200), 散斑结构光–apple(primesense)

结构光法利用光学三角测量原理,分为单目结构光和双目结构光,如图所示以双目结构光为例:

特定波长的Laser发出的结构光照射在物体表面,其反射的光线被带滤波的camera相机接收,滤波片保证只有该波长的光线能为camera所接受。芯片对接收到的光斑图像进行运算,得出物体的深度数据。


4、飞行时间法(Time of Flight)

TOF是Time of Flight的简写,直译为飞行时间的意思。所谓飞行时间法3D成像,是通过给目标连续发送光脉冲,然后用传感器接收从物体返回的光,通过探测光脉冲的飞行(往返)时间来得到目标物距离,从而获取物体三维轮廓信息。

TOF法根据调制方法的不同,一般可以分为两种:脉冲调制(Pulsed Modulation)和连续波调制(Continuous Wave Modulation)。

TOF深度相机对时间测量的精度要求较高,即使采用最高精度的电子元器件,也很难达到毫米级的精度。因此,在近距离测量领域,尤其是1m范围内,TOF深度相机的精度与其他深度相机相比还具有较大的差距,这限制它在近距离高精度领域的应用,具体应用场景参考:3D视觉传感技术


下雨天,最惬意的事莫过于躺在床上静静听雨,雨中入眠,连梦里也长出青苔。


目录
相关文章
|
6月前
|
机器学习/深度学习 人工智能 安全
机器人+AI+MD模拟,加速材料发现和设计,发现全天然塑料替代品
【5月更文挑战第16天】研究人员结合机器人自动化、AI和MD模拟,加速发现全天然塑料替代品,以解决塑料污染问题。通过机器人制备286种纳米复合材料,使用SVM和ANN模型预测其性能,实现高效设计。模型成功推荐了具有特定性能的生物降解替代品,但面临样品制备自动化、天然成分质量控制、成本和生命周期分析等挑战。论文链接:[Nature article](https://www.nature.com/articles/s41565-024-01635-z)
92 3
|
4月前
|
传感器 数据采集 监控
什么是机器视觉应用解决方案?
什么是机器视觉应用解决方案?
45 0
|
6月前
|
机器学习/深度学习 传感器 人工智能
构建未来:AI驱动的自适应交通管理系统
【5月更文挑战第21天】 在本文中,我们将探讨一个由人工智能(AI)技术驱动的自适应交通管理系统的架构和实现。该系统利用机器学习算法实时分析交通数据,预测并优化交通流,从而减少拥堵,提高道路使用效率。通过与传统交通管理方法的比较,我们展示了AI技术如何提升城市交通管理的智能化水平,以及这些技术对环境、经济和社会的潜在积极影响。
128 3
|
传感器 存储 前端开发
视觉SLAM 关键技术与发展概述
最近看了北京理工大学的课程《智能车辆概述与应用》,感觉入门角度讲的还不错的,于是通过本文记录关键内容。
380 0
|
传感器 机器学习/深度学习 人工智能
[OpenVI-视觉生产系列之视频稳像实战篇]再见吧云台,使用AI“魔法”让视频稳定起来
随着自媒体与短视频的兴起,人们有了越来越多的拍摄视频的需求。然而由于手持拍摄、硬件限制等原因,利用手机等普通摄影设备拍摄的视频难免存在视频抖动问题。尤其是开启较高倍数的变焦后,手持拍摄很难拍摄到稳定的视频,极易产生抖动的现象。使用云台、斯坦尼康等外设可以缓解这样的抖动,但是很多时候多带一个外设降低了拍摄视频的便利程度,会使得随时随地的拍摄体验大打折扣。
679 0
[OpenVI-视觉生产系列之视频稳像实战篇]再见吧云台,使用AI“魔法”让视频稳定起来
|
机器学习/深度学习 传感器 编解码
毫米波雷达在多模态视觉任务上的近期工作及简析(上)
在近些年,2D检测任务在自动驾驶的热度递减,取而代之的是3D任务,毕竟现在的实际场景一直多是基于3D场景。但是在3D检测或者分割等任务中,雷达赋予了一个不一样的角色,在之前FOV视角中,毫米波点云大多为了与FOV特征融合,都是通过投影这一种方法,而放到3D场景中,分为两个流派:一个是点云流派:由于lidar和radar具有天然的相似性(当然是处理后的点云),自然就有lidar的相关角色赋予毫米波雷达,相应的,毫米波的角色从FOV到了BEV,它的下游任务,也从辅助为主到BEV下的分割、深度估计、生成密集点云等。
毫米波雷达在多模态视觉任务上的近期工作及简析(上)
|
传感器 数据采集 机器学习/深度学习
毫米波雷达在多模态视觉任务上的近期工作及简析(下)
在近些年,2D检测任务在自动驾驶的热度递减,取而代之的是3D任务,毕竟现在的实际场景一直多是基于3D场景。但是在3D检测或者分割等任务中,雷达赋予了一个不一样的角色,在之前FOV视角中,毫米波点云大多为了与FOV特征融合,都是通过投影这一种方法,而放到3D场景中,分为两个流派:一个是点云流派:由于lidar和radar具有天然的相似性(当然是处理后的点云),自然就有lidar的相关角色赋予毫米波雷达,相应的,毫米波的角色从FOV到了BEV,它的下游任务,也从辅助为主到BEV下的分割、深度估计、生成密集点云等。
毫米波雷达在多模态视觉任务上的近期工作及简析(下)
|
传感器 存储 编解码
工业机器视觉系统相机如何选型?(理论篇—3)
工业机器视觉系统相机如何选型?(理论篇—3)
工业机器视觉系统相机如何选型?(理论篇—3)
|
机器学习/深度学习 人工智能 算法
Orbeus 夏威:「嵌入式」和「云」是计算机视觉未来发展的两大方向
2012 年,Orbeus 的两位来自波士顿大学的联合创始人中止了原定的博士项目并拒绝了来自 Google 的 offer,毅然走向了创业的道路。2014 年,他们推出了一款手机终端图片搜索与管理软件 PhotoTime,早于 Google 发布的同类产品 Google Photos,甫一首发就被苹果商店选为当季最佳新应用。创业三年后,这家硅谷的明星创业公司被亚马逊所收购,开始了一段新的征程。
745 0
Orbeus 夏威:「嵌入式」和「云」是计算机视觉未来发展的两大方向
|
编解码 算法 数据可视化
工业视觉智能实战经验之IVI算法框架2.0
工业视觉智能团队在交付了多个工业视觉智能质检项目后,发现了工业视觉智能的共性问题和解法,打造了工业视觉智能平台,通过平台的方式积累和提升工业视觉的通用能力。在平台建设上最核心的能力是算法能力。算法能力包括不断增强的单点算法能力和不断扩充的新算法能力。那么如何将算法能力输出到平台呢?答案是算法框架。算法框架是算法能力的载体,通过它能够将能力输出到平台。
工业视觉智能实战经验之IVI算法框架2.0