基于图像处理的机器人视觉相关技术研究.docx

上传人:b****5 文档编号:8524892 上传时间:2023-01-31 格式:DOCX 页数:10 大小:727.51KB
下载 相关 举报
基于图像处理的机器人视觉相关技术研究.docx_第1页
第1页 / 共10页
基于图像处理的机器人视觉相关技术研究.docx_第2页
第2页 / 共10页
基于图像处理的机器人视觉相关技术研究.docx_第3页
第3页 / 共10页
基于图像处理的机器人视觉相关技术研究.docx_第4页
第4页 / 共10页
基于图像处理的机器人视觉相关技术研究.docx_第5页
第5页 / 共10页
点击查看更多>>
下载资源
资源描述

基于图像处理的机器人视觉相关技术研究.docx

《基于图像处理的机器人视觉相关技术研究.docx》由会员分享,可在线阅读,更多相关《基于图像处理的机器人视觉相关技术研究.docx(10页珍藏版)》请在冰豆网上搜索。

基于图像处理的机器人视觉相关技术研究.docx

基于图像处理的机器人视觉相关技术研究

基于图像处理的机器人视觉相关技术研究

一、引言

视觉是人类获取信息最丰富的手段,通常人类75%以上的信息来自眼睛,而对于驾驶员来说,超过90%的信息来自于视觉。

同样,视觉系统是机器人系统的重要组成部分之一,视觉传感器也是机器人获得周围信息的感知器件。

当机器人在特定环境下作业,且区域面积较大时,单目视觉不能满足机器人导航需求,需要将多幅图像拼接起来形成一幅大视场图像,以便机器人能够在相应环境下进行快速和准确作业。

随着图像拼接技术的发展,图像拼接技术开始逐渐在机器人行业得到广泛应用。

在移动机器人领域,利用视觉系统采集的具有重叠区域图像进行拼接形成大视角的图像,可以更加准确的分析现场情况,为机器人作业提供帮助。

本文将对机器视觉中应用到的图像格式转换与图像拼接技术进行阐述。

二图像格式转换

机器人的视觉系统是由摄像头或者CMOS/CCD等图像感应器组成,图像传感器能将捕捉到的光源信号转化为数字信号,存储为RAW格式文件,RAW文件是一种记录了数码相机传感器的原始信息,同时记录了由相机拍摄所产生的一些原数据(Metadata,如ISO的设置、快门速度、光圈值、白平衡等)的文件。

RAW是未经处理、也未经压缩的格式,可以把RAW概念化为“原始图像编码数据”。

对RAW文件的处理不方便看到相应具体效果,本文处理方式是将原始数据文件格式转换成方便处理的图像格式再处理。

目前比较流行的有多种图像文件格式,典型的有BMP、GIF、TIFF、JPEG等,图像的文件格式在图像处理中有着重要的作用,其中BMP图像格式应用最广泛,本节将简要介绍BMP图像文件格式。

BMP(BitmapFile)是一种Windows采用的点阵式图像文件格式,主要由位图文件头、位图信息头、位图调色板以及位图数据四个部组成。

结构如表1所示:

 

表1BMP位图文件组成

位图文件组成

标示名称

作用与用途

头文件

BITMAPFILEHEADER

文件类型与数据启示位置等

信息头

BITMAPINFORMATION

位图大小与长、宽、高等信息

调色板

RGBQUAD

由颜色格式确定调色板数组

位图数据

BYTE

位图数据,确定压缩格式等

BMP位图文件的第四部分是实际的图像数据。

对于具有调色板的位图,图像数据就是该像素在调色板中的索引值。

对于2色黑白图像,每个字节可以表示8个像素,对于16色像素,每个字节可以表示两个像素,对于256色像素,每个字节可以表示一个像素。

其中,图像的位图数据是按行存储的,每一行的字节数按照4B边界对其,也即每一行的字节数是4的倍数,不足的字节用0来补齐。

图像的位图数据是按行从下到上、从左到右来排列的。

也就是说,从图像的位图数据中最先读到的是图像最下面一行最左边的像素,然后读到该行左边的第二个像素……,接着读到倒数第二行最左边的像素,紧接着倒数第二行第二个像素,以此类推,最后读到图像上第一行最右边的像素。

这也是图像在显示器中显示的顺序。

将原始RAW格式文件按照一定规则添加相应的头文件以及相应的信息头等,能将原始RAW文件转换成BMP格式位图文件。

转换前后文件如图1所示。

图1图像数据采集与转化结果

三、图像拼接

通过图像拼接技术,可以扩展图像的分辨率,得到宽视角的图像。

在平时的日常生活中,使用普通相机来获取宽视野的场景时,必须通过调节相机的焦距,才能拍摄到完整的场景,但是获得的全景照片分辨率相对降低。

另外,由于距离原因是限制,一些大尺寸物体是无法用一张照片拍摄下来的。

为了确保图像分辨率的条件下获取大视野范围的场景图片,人们提出图像拼接技术,将图像进行无缝拼接。

例如,在微小型履带式移动机器人导航系统中,单目视觉不能满足机器人是视觉导航需要,利用图像处理技术,将机器人双目采集的图像进行拼接,可以增大机器人的视野,给机器人的视觉导航提供方便。

其中,图像拼接是一个多步骤的过程,大体上看,可以分为图像获取、图像预处理、图像配准、图像融合等步骤。

由于采取的方法各不相同,不同方法间步骤也有较大的不同,但总体过程相差无几。

图像拼接的流程图如图2所示。

图2图像拼接基本流程

3.1图像预处理

由于图像采集过程中环境光线和摄像机本身成像质量以及格式转换等因素的影响,有外界的噪声加入到图像中,使图像会发生不同程度的失真。

因此对所采集到的图像进行处理前,需要先对图像噪声进行平滑除噪操作。

由于我们只要求选择有突出感兴趣的特征,衰减不需要的特征,故预处理后的图像并不需要去逼近原图像,预处理后的图像并不考虑图像的降质,目前预处理方法主要是去噪,高斯去噪算法比较常用。

高斯滤波器是根据高斯函数的形状来选择权值的线性平滑滤波器。

高斯平滑滤波器对去除服从正态分布的噪声有很好的效果。

一维高斯函数为

其中的σ决定了高斯滤波器的宽度。

对图像来说,常用二维零均值离散高斯函数做平滑滤波器,函数表达式如下:

使用高斯滤波的理由有如下几条:

1、高斯函数具有高斯函数是单值函数。

因为高斯函数对谁都不偏袒图像的边缘在哪里,高斯函数在各个方向的平滑程度是相同的。

2、高斯函数具有旋转不变的特性,主要是因为它在工作的时候是用用像素邻域的加权均值来代替该点的像素值。

3、高斯函数的付立叶变换频谱是单瓣的,它能够去除高频信号同时又保留有用的信号!

4、高斯函数说了它的参数σ决定了你要的平滑程度σ越大,平滑的就越厉害

5、最后一点就是二维高斯函数卷积可以分两步来进行,首先将图像与一维高斯函数进行卷积,然后将卷积结果与方向垂直的相同一维高斯函数卷积。

因此,二维高斯滤波的计算量随滤波模板宽度成线性增长而不是成平方增长。

3.2图像配准

对图像进行harris角点算法的进行图像角点的提取,利用harris算法找出一幅图像中像素数据比较突出的点,即为特征点,或角点。

它的具体算法是通过分析像素周围区域自相关函数的自相关矩阵特征值来判断某一点是否为角点。

Harris角点检测算子定义了任意方向上的自相关值E(u,v)为一组方形区域中图像灰度误差的总和,即:

u,v为x,y方向上的微小偏移量。

I(x,y)为(x,y)像素点的灰度值,I(x+u,y+v)为(x,y)有微小偏移后的灰度值:

ω(x,y)为高斯滤波器,用来过滤噪声。

它的泰勒展开式为

M为2x2的对称矩阵

式中II为像素点沿着x,y方向的一阶导数。

M是局部自相关函数,其特征值可以表示局部自相关函数的曲率。

由于Harris具有各向同性,故M也可以保持其旋转的不变性。

实际应用中用来计算角点的响应函数如下:

其中λ1,λ2为M矩阵的两个特征值,可以表示局部自相关函数的曲率,Det(M)代表求矩阵行列式,Trace(M)代表求矩阵的迹,k取经验值0.04-0.06。

通过对两个特征值进行分析,可得到以下三个情况:

(1)如果两个特征值都比较小,说明窗口所处区域灰度值变化比较平坦,即沿着任意方向移动,函数E(u,v)的变化不明显。

(2)如果两个特征值一大一小,说明这是一条边缘线。

当沿着边缘方向移动时,函数E(u,v)出现轻微变化,而当垂直于边缘移动时,函数值(u,v)则变化剧烈。

(3)若两个特征值都比较大,则表明该区域呈现尖峰状。

当沿着任意方向移动时,函数E(u,v)变化剧烈,这意味着该像素点是一个焦点。

提取的角点流程如图3所示

图3角点提取流程图

判断角点时,先对R进行非极大窗口抑制,并设定一个阀值T,本例中T值为0.01倍最大R值,当计算出来的R值大于阀值T,即可以表示找到一个角点,否则就不是。

特征点一般来说是局域范围内的极大兴趣值对应像素点。

图4所示为经过高斯去噪后所提取的特征点,图中点状标记符号即为特征点,为了增加图像中的特征点,添加了两个标注性符号,为了方便图像在之后的拼接中配准。

图4高斯去噪提取的特征点

Harris算法性能分析:

(1)该算法中只用到灰度的一阶方差以及高斯滤波,计算量相对较小。

(2)Harris算法具有缩放不变性,图像经过缩放前后角点检测基本一致,这是因为该算法利用了图像的一阶导数,可见Harris算法能较好的适应缩放变换。

(3)Harris算法在纹理信息较为丰富的区域可以提取出大量的角点,而在纹理吸塑的区域图区的角点数较少,比较真实的反映了图像角点的位置。

但是Harris角点也存在着不足之处,主要是对噪声比较敏感,这就要求在选取高斯平滑函数的窗口大小难以设定,而且对旋转也比较敏感,因为对自相关矩阵M利用的是水平和垂直梯度来计算的,也即角点量是由水平和垂直方向的梯度决定。

并且角点提取的效果依赖于阀值的设定,而阀值的选取又依赖于经验值,所有也有一定的不确定性。

确定角点之后,要对两幅图像行进角点匹配,角点匹配常用的方法为相似测度NNC(normalizedcrosscorrelation—归一化互相关)方法。

NNC的计算公式如下:

式中,W1和W2是分别以I1的角点P1和I2的角点P2为中心点两个大小相同窗口,u1,u2为灰度均值,(xi,yi)为取值范围的窗口大小。

NCC算法通过计算模版图像和搜索图像互相关值来确定匹配程度,互相关值最大时位置决定模版图像在搜索图像中的位置,进行角点匹配时,先对图像I1中的任一角点,寻找到图像I2当中和它的相关性最大的角点,当双向搜索到最大相关性角点彼此都对应并且相关性最大时候,我们就认为找到了一对候选匹配点。

具体实施中,将两幅图像进行Harris角点检测后,分别得到角点对应与该图像的坐标位置,以该坐标位置为中心,分别取其附近的8个像素值,然后进行与另一幅图像进行匹配,找出距离最小的点作为匹配点。

接着,将图像一中的角点1与图像二中的所有角点进行相减,得到一个最小误差值,并记录下该位置,这样依次将图像一中的角点2,角点3一直到最后的角点都进行相减,即可得到两幅图像之间的最佳匹配点。

3.3图像融合

确定了待配准两幅图像的对应点后,利用这些对应的点对,以一幅图像为参考,将另外一幅图像归一化到以参考图像为标准的坐标系中,将所得的图像最后需要对图像进行融合,即对图像的缝合,以对缝合的边界进行平滑处理,以使得图像看起来自然。

常用的图像融合方法为加权平均法。

加权平均法对图像的融合的原理为对重合区域的像素值先进行加权,之后再叠加平均。

如下式所示:

这里w1和w2分别是第一幅图像和第二幅图像中重合区域所对应的像素的权值,并且满足w1+w2=1,而且0

其中,权值的选择使用的是Szeliski提出的渐入渐出的方法:

其中,w1和w2与重叠区域的宽度有关,一般取

其中,width表示重叠区域宽度,并且w1+w2=1,0

在重叠区域中,w1由1逐渐变到0,w2由0逐渐变到1,由此即可以实现重叠区域的f1慢慢平滑过渡到f2。

如图5所示:

图5加权平均融合过程

3.4图像拼接实验

在实验过程中,首先为了验证拼接的可靠性以及算法的准确度,先将一幅BMP图像分割成两幅具有交叉部分的子图,利用这两幅图像进行拼接,将拼接后的图像与原图进行比较,结果如下:

图6分割前原图像

图7分割后图像

图8角点提取

图9拼接后图像

从以上拼接过程中以及拼接后的图像与原图像进行比较后可以看出,图像经过角点提取然后拼接融合等过程,可以很好的拼接两幅具有交叉部分的图像。

四、总结

本文主要介绍了机器视觉领域中图像格式转换与图像拼接技术的原理与方法。

即图像经视觉传感器采集到原始图像数据后转换成可处理图像格式,并对两幅具有重合区域图像进行角点提取、匹配与融合,最终形成大视场图像的技术,最后还对该图像拼接算法进行了实验验证。

目前,机器人的视觉对于机器人来说还没有达到视觉相对于人类如此重要的地步,主要原因是视觉信息处理的理论与方法还不够完善。

不过,可以相信随着微电子技术的进步和计算机视觉的发展,机器人的视觉功能越来越强大,同时机器视觉在机器人信息感知中所占的比重也会越来越大。

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 初中教育

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1