ImageVerifierCode 换一换
格式:DOCX , 页数:26 ,大小:4MB ,
资源ID:16427566      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/16427566.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(基于三维深度信息的人体动作运动轨迹识别V11Word文件下载.docx)为本站会员(b****4)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

基于三维深度信息的人体动作运动轨迹识别V11Word文件下载.docx

1、而人的肢体动作是一种自然且直观的人际交流模式,人的肢体动作运动轨迹的识别也理所当然地成为了实现新一代自然的人机交互界面中的不可缺少的一项关键技术,特别是针对一些残障人士,只需要通过人的肢体动作就能给轮椅和残障辅助设备下达指令,更显的尤为便利。之前针对人肢体动作运动轨迹识别的人机交互研究主要侧重于人体皮肤颜色建模,连续动态动作的基于图像属性的鲁棒性特征的提取,然而由于人肢体动作本身具有的多样性、多义性、以及时间和空间上的差异性等特点,因此传统的动作运动轨迹识别研究都有很大的局限性。本文就尝试将人体的三维深度数据引入到人的肢体运动轨迹的识别上面来,开创性的将传统方法拓展到三维空间,这样将减小环境光

2、照、衣物遮挡和人体肤色与背景色的影响,使得计算机对人的肢体运动轨迹的识别更准确和更好的鲁棒性。2 问题描述人的肢体运动轨迹识别问题,即是将传感器实时捕获的人的肢体真实运动轨迹与预先定义好的样本轨迹相匹配的问题。传统方法是应用隐马尔科夫模型来进行真实运动轨迹与模板运动轨迹的匹配。图1.人的肢体动作二维图像基于二维图像的隐马尔科夫模型,如图1所示,通过隐马尔科夫模型进行样本轨迹的匹配,过程如图2所示。但是基于二维的识别有如下的几个难点:(1)光照:当光照发生变化时,人体的亮度信息会发生变化,传感器捕获的图像容易受到自然光和人工灯光的影响。(2)遮挡:由于在识别过程中,肢体运动轨迹可能会被静止的背景

3、区域或者是眼镜、帽子等物体所遮挡,遮挡会产生识别信息的丢失,给识别的可靠性带来了很大的影响。(3)背景:在实际识别过程中,如果人体运动区域与背景区域的颜色、纹理或者形状相似,也会增大识别的难度。图2.基于二维图像的隐马尔科夫模型基于三维深度数据的隐马尔科夫模型,因为引入了三维深度数据,虽然可以有效地去除背景光源照度的影响,和不同目标人员肤色基准值的影响,识别过程不被光照、遮挡和背景等环境因素所影响,但是计算量大,训练效率低下,容易陷入局部最优值等问题,一直制约其在实时监控领域的应用。为了解决这些问题,这里我们将动作历史图像(MHI, Motion History Images)和人的肢体三维深

4、度数据相结合,得到描述人的肢体动作的能量图像MEI,如图3所示,计算运动历史图像MHI的七个不变矩作为肢体动作特征向量,最后建立起肢体动作模板集合,也就是计算出这些肢体动作特征向量集的均值向量和协方差矩阵,识别阶段,通过Mahalanobis距离来衡量新输入的肢体动作与已知的肢体动作模板之间的相似性,只要计算出的Mahalanobis距离在规定的阈值范围之内都可以认为动作识别成功。这样既排除了光照、遮挡和背景等环境因素的影响,又很大程度上提高了识别过程的实时性和准确性。图3.基于三维深度数据的运动能量图像3 问题求解Problem solving3.1 肢体动作的三维运动历史图像表征Body

5、movements characterized by three-dimensional motion history image本文应用将传统的基于二维图像的动作历史图像进行改进,使之与三维深度数据相结合,达到共同表征三维肢体动作信息的目的。In this paper, to characterize the 3D motion information ,application of traditional motion history image based on two-dimensional image is improved to combine the three-dimensio

6、nal depth data .运动历史图像作为时间差分法的一个分支,时间差分法是将连续的图像序列中比较两个或者三个相邻帧对应像素点发生的相对变化,得到差分图像进而阈值化来提取图像中的运动区域。本文引入三维深度数据,所以采用改进后的差分方法如下:The motion history image is a branch of time difference method,the method is to get different image by a continuous image sequence comparisons between two or three adjacent pixe

7、ls corresponding to the frame ,then to threshold to extract moving regions in an image.This paper introduced the 3D data, the improved differential method is as follows: 其中:表示第帧图像中三维空间位置处的像素灰度值,是连续3帧差分后的结果,代表了人体肢体动作发生变化的区域,将阈值化如下:Among them,represents the Pixel gray value in the position (x,y,z) in

8、three dimensional space, is the result of the three consecutive frames difference and it also represents human body movement changed area.The threshold of is as follows:其中是选择的阈值,值过低则不能有效抑制图像中的噪声,值过高则会抑制图像中有用的变化。 is the choice of the threshold. If its value is too low ,it can not effectively suppress

9、 noise in images,but if its value is too high,it will inhibit the image changes of useful.肢体运动的三维运动历史图像MHI的产生如下:Three dimensional motion history image of body movement(MHI) is made as follows:运动历史图像MHI不仅反映了肢体动作的外在形状,也反映了肢体动作发生的方向和状态,在运动历史图像MHI中,每个像素的灰度值都与该位置肢体动作的持续运动时间成比例,最近发生的肢体动作姿态的灰度值最大,灰度值的变化体现了

10、肢体动作运动发生的方向。The motion history image MHI reflects not only the external shape of body movements, but also reflects the direction and state of body movements . In the motion history image,the gray value of each pixel is in proportion with the duration of the body movement in the position . The recent

11、 body gestures have the maximum gray value. Gray value changes reflect the direction of the body movements. 图4.肢体运动的三维运动历史图像MHI Fig4 Three dimensional motion history image of body movement(MHI)3.2 肢体动作的运动历史图像不变矩计算Calculation of the invariant moment for the motion history image 这种基于肢体的三维运动历史图像MHI表征方法

12、虽然简单快捷有效,但对观察点的位置角度比较敏感,为了克服这一缺点,所以本文选取了不变矩作为肢体动作的运动历史图像的特征向量。不变矩的方法是一种比较经典的图形图像特征提取方法,它的平移不变性、伸缩不变性和旋转不变性能很好地排除观察点的位置和角度的影响。Although the three-dimensional motion history image method based on MHI limb is simple and efficient, it is sensitive to the position of observation point . In order to overco

13、me this shortcoming, this paper selects the invariant moments as eigenvector for the motion history image. The method of invariant moment is a classical method to extract image feature, its translation invariance, scaling invariance and rotation invariance properties well rule out the impact on the

14、position and angle.我们得到肢体动作的三维运动历史图像MHI之后,为了计算它的不变矩,先将他分别在XY平面(如图5)、YZ平面(如图6)和XZ平面(如图7)进行投影。这样就可以得到对于同一个肢体动作的三维运动历史图像的三个视图,然后别对这三个主视图进行不变矩的计算。To get the invariant moment,after we get the three-dimensional motion history image, we projected it in the XY plane, YZ plane and XZ plane. This method can b

15、e for the three views of a 3D motion history image with one gesture. Then we did the calculation of moment invariants for the three main view.图5.肢体运动的MHI的XY面投影 Fig5. XY surface projection of the MHI图6.肢体运动的MHI的YZ面投影Fig6. YZ surface projection of the MHI图7.肢体运动的MHI的XZ面投影Fig7. XZ surface projection of

16、 the MHI对一个尺寸为的数字图像,其中阶矩被定义为:For a size of M * N digital image f(x,y), the p+q order moment is defined as follows:Among them, 其阶中心矩定义为: p+q order central moment 表示物体图像上的点,是物体的质心:(x,y) represents the object image point, is the object centroid:,。再通过零阶中心矩对其余各阶中心矩进行归一化可以得到运动历史图像的归一化中心矩:Then through the

17、normalizing of the central moment by the zero order central moments ,we can get the normalized center moment of the motion history image. HuMK利用二阶和三阶归一化中心矩的线性组合,得到了7个不变矩构成的不变矩组,对于图像的平移、旋转和缩放均保持不变,这个不变矩组如下:K get seven invariant moments based on the linear combination of two order and three order norm

18、alized central moment.The image translation, rotation and scaling are unchanged and the invariant moments are as follows:因为不变矩值较小,一般通过取绝对值的对数进行数据压缩,所以实际采用的矩值需要按照以下公式修正:Because the moment invariant is smaller, it is compressed by the absolute value of the logarithm and so the actual values need to be

19、 corrected in accordance with the following formula.经过修正之后的不变矩组依然具有平移、旋转和缩放不变性。The invariant moments still has a translation, rotation and scaling invariance after amendment.通过对三个方向上的投影图像的计算,我们将得到一个的特征值矩阵,这个特征值矩阵就是每一个肢体动作的运动历史图像的特征向量。Through the calculation of the projection images in three directio

20、ns, we will get a 3 * 7 eigenvalue matrix.This eigenvalue matrix is the eigenvector for motion history volume.3.3 肢体动作的运动历史图像识别The motion history image recognition of body movements在识别过程中首先对人的肢体动作进行样本采集,建立一个训练模板库,以用于得到肢体动作的标准特征向量。In the process of recognition ,we collect the sample of human body mov

21、ement first and build a training template library so that we can get the standard eigenvector.对每个相同的肢体动作,让多个不同的人参与反复执行多次,得到每个肢体动作的多组三维运动历史图像MHI,并从中计算出特征向量,再计算出这些特征向量的均值与协方差矩阵,建立起每个肢体动作的模板。For each of the same body movement, different people are involved in and they repeat several times. We get multi

22、ple groups of 3D motion history image for each movement and then get the mean of these eigenvectors and the covariance matrix.After doing this, each gesture template is established.然后对于新的肢体动作计算与标准动作模板之间的Mahalanobis距离,Mahalanobis距离的计算公式如下:For the Mahalanobis distance between new movement calculation

23、and standard action template,it is defined as follows:是Mahalanobis距离,是肢体动作运动历史图像的不变矩特征向量,是已训练的特征向量的均值向量,c是已训练的特征向量集的协方差矩阵。 is Mahalanobis distance, is the eigenvector of motion history image,is the mean vector of the eigenvectors trained. c is the covariance matrix of the eigenvectors trained.识别过程中,

24、可以利用经典的AdaBoost算法根据每个不变矩的阶数确定一个阈值,然后通过Mhalanobis距离来衡量新输入的肢体动作和已训练得到的肢体动作模板之间的相似性,只要计算出的Mahalanobis距离在规定的阈值范围之内都可以认为是匹配成功,如果匹配模板不止一个,则选择距离最小的那个作为成功匹配的模板。In the recognition process, an optimal threshold is determined according to the order of each moment invariants using the classical AdaBoost algorit

25、hm.Then we use Mhalanobis distance to measure similarity between the new input gestures and body movements which have been trained by template.If the Mhalanobis distance is within the scope of the provisions of the threshold,it can be considered as a successful match. If we get more than one templat

26、e matching,we choose the minimum distance as the template.4 实验结果The experimental results4.1 数据预处理Data preprocessing在普通实验室环境下进行人的肢体动作运动轨迹识别实验。实验中,实验者保持身体正面向前,垂直于水平面,并且距离Kinect传感器1.2米到2米。本文对监测到的肢体动作进行了去抖动处理,记录前一帧判断所得中心位置数据,再和当前帧的中心位置数据进行比较,如果两者偏差在设定的阈值范围之内,就将当前帧视作小幅度内的抖动,继续显示前一帧的位置数据。This trajectory r

27、ecognition experiments is did in normal laboratory environment.In the experiment,people should keep the body facing forward, perpendicular to the horizontal plane and be about 1.2 meters to 2 meters to the Kinect. In this paper, we debounce the physical movements monitored and record the center posi

28、tion data of the prior frame to compare with the center position data of the current frame. If the deviation is within the threshold range,we can show the position data of the prior frame to ignore the jitter of the current frame. 在识别肢体动作运动轨迹的时候如果直接采用真实运动的轨迹,则在运动开始和运动结束的时候会出现无效帧,而运动中间部分则是有效帧,为了去掉开始和

29、结束部分的无效帧,本文采用了去抖动处理,在运动开始和结束部分运动位移会降低,这里直接作为起始点和禁止点进行处理。When using the real time trajectory,invalid frames will appear at the beginning and end of the movement. In order to remove the invalid part and get the the middle part,we debounce the physical movements,so the motion part displacement will dec

30、rease and all the frames can be used.实验中让4个人分别做出4种肢体动作,分别如图8、图9、图10和图11所示,每种动作反复执行10次,这样对于每种肢体动作就产生了40个样本,每个肢体动作持续5s到15s,图像大小为1200*900。In the experiment ,we make four people to do four kinds of body movements, as shown in figure 8, figure 9, figure 10 and Figure 11.Each action is repeated 10 times and it generate 40 samples for each body movement.Every movement last five to fifteen seconds and the image size is 1200*900.图8.动作A的三维运动历史图像Fig8.motion history image for motion A图9. 动作B的三维运动

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1