3D成像方法汇总原理解析双目视觉激光三角结构光ToF光场全息Word文档下载推荐.docx

上传人:b****4 文档编号:13642844 上传时间:2022-10-12 格式:DOCX 页数:10 大小:681.96KB
下载 相关 举报
3D成像方法汇总原理解析双目视觉激光三角结构光ToF光场全息Word文档下载推荐.docx_第1页
第1页 / 共10页
3D成像方法汇总原理解析双目视觉激光三角结构光ToF光场全息Word文档下载推荐.docx_第2页
第2页 / 共10页
3D成像方法汇总原理解析双目视觉激光三角结构光ToF光场全息Word文档下载推荐.docx_第3页
第3页 / 共10页
3D成像方法汇总原理解析双目视觉激光三角结构光ToF光场全息Word文档下载推荐.docx_第4页
第4页 / 共10页
3D成像方法汇总原理解析双目视觉激光三角结构光ToF光场全息Word文档下载推荐.docx_第5页
第5页 / 共10页
点击查看更多>>
下载资源
资源描述

3D成像方法汇总原理解析双目视觉激光三角结构光ToF光场全息Word文档下载推荐.docx

《3D成像方法汇总原理解析双目视觉激光三角结构光ToF光场全息Word文档下载推荐.docx》由会员分享,可在线阅读,更多相关《3D成像方法汇总原理解析双目视觉激光三角结构光ToF光场全息Word文档下载推荐.docx(10页珍藏版)》请在冰豆网上搜索。

3D成像方法汇总原理解析双目视觉激光三角结构光ToF光场全息Word文档下载推荐.docx

7、补充:

戳穿假全息

上面原理之间可能会有交叉。

而激光雷达不是3D成像原理上的一个分类,而是一种具体方法。

激光雷达的3D成像原理有:

三角测距法、飞行时间ToF法等。

激光雷达按照实现方式分类有:

机械式、混合固态、基于光学相控阵固态、基于MEMS式混合固态、基于FLASH式固态等。

1、双目立体视觉法:

就和人的两个眼睛一样,各种两个摄像头的手机大都会用这种方法来获得深度信息,从而得到三维图像。

但深度受到两个摄像头之间距离的限制。

视差图:

双目立体视觉融合两只眼睛获得的图像并观察它们之间的差别,使我们可以获得明显的深度感,建立特征间的对应关系,将同一空间物理点在不同图像中的映像点对应起来,这个差别,我们称作视差(Disparity)图像。

对于视差的理解可以自己体验一下:

将手指头放在离眼睛不同距离的位置,并轮换睁、闭左右眼,可以发现手指在不同距离的位置,视觉差也不同,且距离越近,视差越大。

提到视差图,就有深度图,深度图像也叫距离影像,是指将从图像采集器到场景中各点的距离(深度)值作为像素值的图像。

深度图与点云的区别,点云:

当一束激光照射到物体表面时,所反射的激光会携带方位、距离等信息。

若将激光束按照某种轨迹进行扫描,便会边扫描边记录到反射的激光点信息,由于扫描极为精细,则能够得到大量的激光点,因而就可形成激光点云。

深度图像经过坐标转换可以计算为点云数据;

有规则及必要信息的点云数据可以反算为深度图像。

两者在一定条件下是可以相互转化的。

双目立体视觉由三角法原理进行三维信息的获取,即由两个摄像机的图像平面和被测物体之间构成一个三角形。

已知两个摄像机之间的位置关系和物体在左右图像中的坐标,便可以获得两摄像机公共视场内物体的三维尺寸及空间物体特征点的三维坐标。

所以,双目视觉系统一般由两个摄像机构成。

深度和视差成反比。

2、激光三角法

单点激光测距原理:

(同属于下面结构光原理)

单点激光测距原理图如下图。

激光头Laser与摄像头在同一水平线(称为基准线)上,其距离为s,摄像头焦距为f,激光头与基准线的夹角为β。

假设目标物体Object在点状激光器的照射下,反射回摄像头成像平面的位置为点P。

由几何知识可作相似三角形,激光头、摄像头与目标物体组成的三角形,相似于摄像头、成像点P与辅助点P′。

P与辅助点P′。

设PP′=x,q、d如图所示,则由相似三角形可得:

PP′=x,q、d如图所示,则由相似三角形可得:

f/x=q/s 

==>

 

q=fs/x 

X可分为两部分计算:

X=x1+x2=f/tanβ+pixelSize*position

其中pixelSize是像素单位大小,position是成像的像素坐标相对于成像中心的位置。

最后,可求得距离d:

d=q/sinβ

线状激光三角测距原理:

将激光光条的中心点P1、成像点P1′、摄像头、激光头作为基准面,中心点P1就符合单点结构光测距。

对于任一点(该点不在基准面上),也可由三角测距得出。

如上图所示,将成像平面镜像到另一侧。

其中P1′,P2′和分别是P1和P2的成像位置,对于点P2、成像点P2′、摄像头、激光头所形成的平面,与基准面存在夹角θ,也符合单点结构光测距。

此时的焦距为f′,x的几何意义同单点激光测距原理。

d'

/baseline=f'

/x

d′是P2与baseline所成平面上P2到底边的高(类比于单点激光测距原理中的q)。

同样x可分为两部分计算d′是P2与baseline所成平面上P2到底边的高(类比于单点激光测距原理中的q)。

同样x可分为两部分计算:

x=f'

/tanβ+pixelSize*position

上述中的平面与基准面的夹角为θ上述中的平面与基准面的夹角为θ:

f'

/f=cosθ 

tanθ=(|P2'

.y-P1'

.y|)/f

可求得f′:

=f/cos(arctan((P2'

.y)/f)) 

3、结构光3D成像法

OPPOFindX和IphoneX等手机的前置摄像头纷纷搭载。

单从光源本身理解什么是结构光:

就是带有一定结构的,而且我们自己是知道光源的这种结构的。

结构光三维视觉是基于光学三角测量原理。

光学投射器将一定模式的结构光透射于物体表面,在表面上形成由被测物体表面形状所调制的光条三维图像。

该三维图像由处于另一位置的摄像机探测,从而获得光条二维畸变图像。

光条的畸变程度取决于光学投射器与摄像机之间的相对位置和物体表面形状轮廓(高度)。

直观上,沿着光条显示出的位移(或者偏移)与物体表面高度成比例,扭结表示了平面的变化,不连续显示了表面的物理间隙。

当光学投射器与摄像机之间的相对位置一定时,由畸变的二维光条图像坐标便可重现物体表面三维形状轮廓。

由光学投射器、摄像机、计算机系统即构成了结构光三维视觉系统。

根据光学投射器所投射的光束模式的不同,结构光模式又可分为点结构光模式、线结构光模式、多线结构光模式、面结构光模式、相位法等。

点结构光模式:

(和上面介绍的三角测距一样)如图所示,激光器发出的光束投射到物体上产生一个光点,光点经摄像机的镜头成像在摄像机的像平面上,形成一个二维点。

摄像机的视线和光束在空间中于光点处相交,形成一种简单的三角几何关系。

通过一定的标定可以得到这种三角几何约束关系,并由其可以唯一确定光点在某一已知世界坐标系中的空间位置。

线结构光模式:

(和上面介绍的三角测距一样)线结构光模式是向物体投射一条光束,光条由于物体表面深度的变化以及可能的间隙而受到调制,表现在图像中则是光条发生了畸变和不连续,畸变的程度与深度成正比,不连续则显示出了物体表面的物理间隙。

任务就是从畸变的光条图像信息中获取物体表面的三维信息;

实际上,线结构光模式也可以说是点结构模式的扩展。

过相机光心的视线束在空间中与激光平面相交产生很多交点,在物体表面处的交点则是光条上众多的光点,因而便形成了点结构光模式中类似的众多的三角几何约束。

很明显,与点结构光模式相比较,线结构光模式的测量信息量大大增加,而其实现的复杂性并没有增加,因而得到广泛应用。

多线结构光模式:

多线结构光模式是光带模式的扩展。

如图,由光学投射器向物体表面投射了多条光条,其目的的一方面是为了在一幅图像中可以处理多条光条,提高图像的处理效率,另一方面是为了实现物体表面的多光条覆盖从而增加测量的信息量,以获得物体表面更大范围的深度信息。

也就是所谓的“光栅结构模式”,多光条可以采用投影仪投影产生一光栅图样,也可以利用激光扫描器来实现。

面结构光模式:

当采用面结构光时,将二维的结构光图案投射到物体表面上,这样不需要进行扫描就可以实现三维轮廓测量,测量速度很快,光面结构光中最常用的方法是投影光栅条纹到物体表面。

当投影的结构光图案比较复杂时,为了确定物体表面点与其图像像素点之间的对应关系,需要对投射的图案进行编码,因而这类方法又称为编码结构光测量法。

图案编码分为空域编码和时域编码。

空域编码方法只需要一次投射就可获得物体深度图,适合于动态测量,但是目前分辨率和处理速度还无法满足实时三维测量要求,而且对译码要求很高。

时域编码需要将多个不同的投射编码图案组合起来解码,这样比较容易实现解码。

主要的编码方法有二进制编码、二维网格图案编码、随机图案编码、彩色编码、灰度编码、邻域编码、相位编码以及混合编码。

相位法:

近年来基于相位的光栅投影三维轮廓测童技术有了很大的发展,将光栅图案投射到被测物表面,受物体高度的调制,光栅条纹发生形变,这种变形条纹可解释为相位和振幅均被调制的空间载波信号。

采集变形条纹并且对其进行解调可以得到包含高度信息的相位变化,最后根据三角法原理计算出高度,这类方法又称为相位法。

基于相位测量的三维轮廓测量技术的理论依据也是光学三角法,但与光学三角法的轮廓术有所不同,它不直接去寻找和判断由于物体高度变动后的像点,而是通过相位测量间接地实现,由于相位信息的参与,使得这类方法与单纯光学三角法有很大区别。

4、飞行时间法ToF

飞行时间是从TimeofFlight直译过来的,简称TOF。

其基本原理是通过连续发射光脉冲(一般为不可见光)到被观测物体上,然后用传感器接收从物体返回的光,通过探测光脉冲的飞行(往返)时间来得到目标物距离。

TOF法根据调制方法的不同,一般可以分为两种:

脉冲调制(PulsedModulation)和连续波调制(ContinuousWaveModulation)。

脉冲调制:

脉冲调制方案的原理比较简单,如下图所示。

它直接根据脉冲发射和接收的时间差来测算距离。

连续波调制:

实际应用中,通常采用的是正弦波调制。

由于接收端和发射端正弦波的相位偏移和物体距离摄像头的距离成正比,因此可以利用相位偏移来测量距离。

目前的消费级TOF深度相机主要有:

微软的Kinect2、MESA的SR4000、GoogleProjectTango中使用的PMDTech的TOF深度相机等。

这些产品已经在体感识别、手势识别、环境建模等方面取得了较多的应用,最典型的就是微软的Kinect2。

TOF深度相机对时间测量的精度要求较高,即使采用最高精度的电子元器件,也很难达到毫米级的精度。

因此,在近距离测量领域,尤其是1m范围内,TOF深度相机的精度与其他深度相机相比还具有较大的差距,这限制它在近距离高精度领域的应用。

但是,TOF深度相机可以通过调节发射脉冲的频率改变相机测量距离;

TOF深度相机与基于特征匹配原理的深度相机不同,其测量精度不会随着测量距离的增大而降低,其测量误差在整个测量范围内基本上是固定的;

TOF深度相机抗干扰能力也较强。

因此,在测量距离要求比较远的场合(如无人驾驶),TOF深度相机具有非常明显的优势。

光场就是光辐射在空间各个位置各个方向的传播。

全光函数:

全光函数包含7个变量。

空间位置(3D)、特定方向(2D)、特定时刻(1D)、特定波长(1D)

L=p(x,y,z,θ,φ,t,λ)

如图所示:

若一条光线通过两个平面UV和ST所产生的交点坐标分别为(u,v)和(s,t),此时就可以通过光场函数L(u,v,s,t)

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 工作范文 > 制度规范

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1