ImageVerifierCode 换一换
格式:DOCX , 页数:27 ,大小:879.33KB ,
资源ID:19098928      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/19098928.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(声纹识别Word下载.docx)为本站会员(b****5)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

声纹识别Word下载.docx

1、 (1),式中u 为预加重系数,通常取值0.95 左右。本系统采用一个窗长为256,窗移是128的汉明窗在语音序列上滑动,对语音进行加窗分帧处理。通过对语音信号的短时能量和短时过零率实现比较精确的端点切分,可以剔除掉静默帧、白噪声帧和清音帧,最后保留对求取MFCC等特征参数非常有用的浊音信号。2.2 问题二是对说话人的语音进行识别,语音特征信号识别是语音识别研究领域中的一个重要方面,我们采用模式匹配的原理解决。语音识别的运算过程为:首先,待识别语音转化为电信号后输入识别系统,经过预处理后用数学方法提取语音特征信号,提取出的语音特征信号可以看成该段语音的模式。然后将该段语音模型同已知参考模式相比

2、较,获得最佳匹配的参考模式为该段语音的识别结果。语音识别流程如图2.2.1所示流程图如下:图2.2.1 说话人识别模型流程图本模型中我们选取了001,002,003,004四类不同音频,用BP 神经网络实现对这四类音频的有效分类。每段音频都用上述倒谱系数法提取500组24维语音特征信号,提取出的语音特征信号。2.3问题三要求利用语音数据评价你的说话人模型或声纹识别模型评价的好坏。通过本文建立BP神经网络模型,我们可运行测试其准确性。2.4问题四要求我们分析影响准确率的因素,并采取措施进一步提高声纹识别的准确率。三、模型假设1. 假设预加重系数u的值为0.93752.假设所用的音频的录音环境为同

3、一环境,为封闭式录音教室;3. 假设录用人员讲的语言为较标准的普通话;4假设录音人员是处于正常说话模式,没有经过特殊仪器进行变音;5假设数据训练量每增加100,训练时长增加1s;6.本模型使用的文本无关的声纹识别文件;7.假设所提供的数据完整、可靠、有效;8.假设我们网络上查阅的资料以及结论真实可靠。四、符号说明1、预加重系数;2、P(f)短时能量谱;3、P(M) 美尔坐标上的能量谱;4、Hm(K)滤波器组;5、MFCC美尔倒谱系数;6、a隐含层阈值;7、b输出层阈值;8、学习速率;9、e网络预测误差;10、欧式范数;11、高斯函数中心;12、高斯函数方差;13、输入层、隐含层和输出层神经元之

4、间的连接权值;14、隐含层输出;15、BP神经网络预测输出。五、模型建立与求解5.1 问题一 :5.1.1构建声纹特征MFCC系数模型在语音信号预处理后,接着是特征参数的提取。选取的特征必须能够有效地区分不同的说话人,且对同一说话人的变化保持相对稳定。基于人耳的听觉机理,反映听觉特性,模拟人耳对声音频率感知的特征参数,如美尔倒谱系数等。很多研究证明,由于Mel频率特性反映了人耳的听觉特性,常用于代替人耳来分析语音,其性能和鲁棒性都是最符合实际听音效果的。MFCC参数与线性预测倒谱分析相比,突出的优点是不依赖全极点语音产生模型,因此,在与文本无关的说话人识别系统中,MFCC参数能够更好地提高系统

5、的识别性能。5.1.2模型求解:MFCC参数计算步骤如下:首先,语音信号在经过预处理、分帧加窗后转变为短时信号,经过FFT 变换将x(n)转化为X(m),并计算出其短时能量谱P(f)。在将P(f)在频率轴上的频谱转化为在美尔坐标上的P(M)。接着在美尔频域内将在美尔坐标上加入三角带通滤波器得到滤波器组Hm(K),再计算美尔坐标上的能量谱P(M) 通过该滤波器组的输出值。最后在美尔刻度谱上能够采取修改的离散余弦反变换来求取美尔倒普参数MFCC:(2)式中,p 为MFCC 阶数。5.1.2.1 音频001-004的3s短时信号短时能量谱P(f)图如下图:5.1.2.2 音频001-004的前10行

6、24列美尔倒普参数见附录8.25.2问题二5.2.1 BP神经网络模型的建立BP神经网络是一种多层前馈神经网络,该网络的主要特点是信号前向传递,误差反向传播。在前向传递中,输入信号从输入层经隐含层逐层处理,直至输出层。每一层的神经元状态只影响下一层神经元状态。如果输出层得不到期望输出,则转入反向传播,根据预测误差调整网络权值和阈值,从而使BP神经网络预测输出不断逼近期望输出。BP神经网络的拓扑结构如图1-1所示。图1-1中,X1,X2,Xn 是BP神经网络的输入值,Y1,Y2,Ym 是BP神经网络的测值,ij和jk 为BP神经网络权值。从图1 1可以看出,BP神经网络可以看成一个非线性函数,网

7、络输入值和预测值分别为该函数的自变量和因变量。当输入节点数为n,输出节点数为m 时,BP神经网络就表达了从n 个自变量到m 个因变量的函数映射关系。BP神经网络预测前首先要训练网络,通过训练使网络具有联想记忆和预测能力。BP神经网络的训练过程包括以下七个步骤:步骤1:网络初始化。根据系统输入输出序列(X,Y)确定网络输入层节点数你、隐含层节点数,输出层节点数m,初始化输入层、隐含层和输出层神经元之间的连接权值,初始化隐含阈值a,输出层阈值b,给定学习速率和神经元激励函数。步骤2:隐含层输出计算。根据输入向量X,输入层和隐含层间连接权值以及隐含层阈值a,计算隐含层输出H。 (1)式中,为隐含层节

8、点数;f隐含层激励函数,该函数有多种表达形式,本章所选函数为: (2)步骤3:输出层输出计算。根据隐含层输出H,连接权值和阈值b,计算BP神经网络预测输出O。 (3)步骤4:误差计算。根据网络预测输出O和期望输出Y,计算网络预测误差e。 (4)步骤5:权值更新。根据网络预测误差e更新网络连接权值,。 (5) (6)为学习速率。步骤6:阈值更新。根据网络预测误差e更新网络节点阈值a,b。 (7) (8)步骤7:判断算法迭代是否结束,若没有结束,返回步骤2。基于BP神经网络的语音特征信号识别分类算法建模包括BP神经网络构建、BP神经网络训练和BP神经网络分类三步,算法流程如图1-4所示。 图1-4

9、算法流程BP神经网络构建根据系统输入输出数据特点确定BP神经网络的结构,由于语音特征输入信号有24维,待分类的语音信号共有4类,所以BP神经网络的结构为24254,即输入层有24个节点,隐含层有25个节点,输出层有4个节点。BP神经网络训练用训练数据训练BP神经网络。共有2000组语音特征信号,从中随机选择1500组数据作为训练数据训练网络,500组数据作为测试数据测试网络识别分类能力。 BP神经网络分类用训练好的神经网络对测试数据所属语音类别进行识别分类。5.1.4模型求解 5.1.4.1运用数据选择和归一化方法对数据进行处理数据归归一化是神经网络预测前对数据常做的一种处理方法法。数据归一化

10、处理把所有数据都转化为0,1之间的数,其目的是取消各维数据见数量级差别,避免因为输入输出数据数量级差别较大而造成网络预测误差较大。本模型使用的是最大最小法。函数公式为: (9)式中, 为数据序列中的最小数; 为序列中的最大的数。首先,根据倒谱系数法提取四个人的语音特征信号,不同的语音信号分别用1,2,3,4标识,提取出的信号分别存储与不同的数据库文件中,每组数据为25维,第1维为类别标识,后24维为语音特征信号。把四种语音特征信号合为一组,从中随机选择15000组数据作为训练数据,500组数据作为测试数据,并对训练数据进行归一化处理。根据语音种类标识设定每组语音信号的期望输出值,如标识类为1是

11、,期望输出向量为1 0 0 0。用训练好的BP神经网络分类语音特征信号测试数据,预测语音种类和实际语音种类的分类图如图(2)所示图(2)预测语音种类和实际语音种类的分类图(3) BP神经网络分类误差BP神经网络分类正确率语音信号类别第一类第二类第三类第四类识别正确率0.91940.78860.84620.7724从BP神经网络分类结果可以看出,基于BP神经网络的语音信号分类算法具有较高的准确性,能够准确识别出语音信号所属类别,识别正确率最高可达91%。5.3问题三利用语音数据评价你的说话人模型或声纹识别模型评价的好坏;5.3.1 数据分析:我们使用005、006、007、008音频的特征信号数

12、据量2000分别随机用训练样本1500,测试样本500,以及训练样本1900,测试样本100对所建的说话人模型进行进一步的测试检验如下:一随机用训练样本1500,测试样本500测试检验说话人模型二随机训练样本1900,测试样本100测试检验说话人模型1.虽然对随机用训练样本1500,测试样本500测试检验说话人模型BP神经网络总体识别正确率能达到83%,但BP神经网络存在对于数据量大的学习收敛速度慢、容易陷入局部极小点而无法得到全局最优解等缺点。2.虽然BP神经网络具有较高的拟合能力, ,但其拟合能力不是绝对的,而且网络预测结果仍有一定误差,某些样本点的预测误差较大。3.而且我们的神经网络权值

13、与结构的设计往往依靠经验获得,存在实践的检验性。4.训练数据量增加,识别正确率有所提高,但运行时间有所增加;为此我们得出结果我们建立的BP神经网络模型有一定的缺陷性,在满足识别时间为一定的情况下能满足数据量较少时的BP神经网络说话人识别的准确率,并且经过数据分析我们得到神经网络识别预测的准确性和训练数据的多少有较大的关系,于此后面方案中我们使用遗传算法优化BP神经网络,以得到更高的识别正确率。5.4 问题四通过对模型二的数据分析,我们发现建立遗传算法优化BP神经网络基函数中心以及宽度因素受拓扑结构影响较大,其处理还可进一步的优化,但是BP神经网络参数难以确定,根据经验数据归一化全局寻优能力有点

14、欠佳,种种原因影响了说话人识别的准确率,对此我们做以下遗传算法BP神经网络模型进一步优化上述遇到的问题,从而提高说话人识别的准确率。5.4.1 运用遗传算法BP神经网络进行优化 BP网络的基本思想是:用BP作为隐单元的“基”构成隐藏层空间,隐含层对输入矢量进行变换,将低维的模式输入变换到高维空间内,使得在低维空间内的线性不可分的问题在高维空间内线性可分。三层网络的BP神经网络结构如图2所示。图2中,三层BP神经网络结构第一层是输人层,由信号源结点组成;第二层为隐藏层,其节点数目根据所描述问题的需要而确定,该层中神经元变换函数即径向基函数是对中心点径向对称且衰减的非负线性函数;第三层为输出层,它

15、对输入模式作出响应。通常RBF的径向基函数采用高斯函数,其激活函数表示为:为欧式范数; 为高斯函数的中心;为高斯函数的方差。由图2所示的RBF网络的结构可得到网络的输出为:其中, 为第P个输入样本;为网络隐含层节点的中心;为隐含层到输出层的连接权值;为与输入样本对应的网络的第j个输出节点的实际输出。5.4.2 对遗传算法的讲解遗传算法是1962年由美国Michigan大学Holland教授提出的模拟自然界遗传机制和生物进化论而成的一种并行随机搜索最优化方法。它把自然界“优胜劣汰,适者生存”的生物进化原理引入优化参数形成的编码串联群体中,按照所选择的适应度函数并通过遗传中的选择、交叉和变异对个体

16、进行筛选,使适应度值很好地被个体保留。遗传算法的基本操作可分为:选择操作,从旧群体中以一定的概率选择个体到新群体中,个体被选中的概率跟适应度值有关,个体适应度值越好,被选中的概率越大;交叉操作,从个体中选择两个个体,通过两个染色体的交换组合,来产生新的优秀个体;变异操作,从群体中任选一个个体,选择染色体中的一点进行变异以产生更优秀的个体。5.4.3 遗传优化BP神经网络模型建立本系统中遗传优化RBF神经网络结构与参数的训练过程如下:基函数的中心以及隐含层单元的高斯函数的宽度可以通过遗传算法获得,有效地克服了传统RBF网络难以确定基函数的中心和宽度的缺点,同时根据聚类问题的实际情况设计编码、交叉

17、和变异算子,使得算法更快、更有效地收敛于全局最优解。种群初始化个体编码采用实数编码,每个个体均为一个实数串,仅对应RBF隐藏层中一个单元。在每一代中,包含了代表隐藏层单元数中心和宽度的字符串集合。适应度函数根据个体得到的神经网络的初始隐层中心和宽度,用训练数据训练RBF神经网络后预测系统输出,把预测输出和期望输出之间的误差绝对值和E作为个体适应度值F,计算公式为:式中,n为网络输出节点数,Y 为第i个节点的期望输出;0 为第i个节点预测输出,k为系数。这样选取的适应度函数比较直观地反映了每个个体性能的好与差。选择操作遗传算法性能会直接受到选择策略的影响,本系统采用轮盘赌法的选择策略。每个个体i

18、选择的概率P 为:式中, 为适应度值,由于适应度值越小越好,所以在个体选择前对适应度值求倒数,为种群个体数目。交叉和变异操作交叉操作在遗传算法中起核心作用,遗传算法通过交叉操作,其搜索能力得以提高。由于本系统的编码过程中是将BP的中心和宽度编码放在同一个个体中,因此在交叉过程中必须对它们分别进行操作。按照一定的交叉概率随机地从群体中取出两个个体,对两个个体进行交叉,交叉点的位置不是无条件随机产生的,它们必须分别落在宽度和中心的编码中。交叉概率一般在051。0之间取值,因为交叉概率太小会使搜索过程停滞不前。变异算子通过对所有个体随机的确定基因位以变异概率改变该基因值,目的是增强遗传算法的局部搜索

19、能力,同时增加了群体的多样性。如果没有变异,就不会产生新的基因,但变异概率太大,会使遗传算法变成随机搜索,一般变异概率取值在00102之间。5.4.4 模型结果及分析六、模型评价与推广6.1 优点:本文对BP神经网络进行了深入分析,运用遗传算法优化BP神经网络对数据量较大时进行处理并将优化后的RBF神经网络用于声纹识别系统,试验结果证明取得了较好的效果。6.2 缺点:在训练的数据量较多时,该方法效果不佳;6.3 模型推广:BP神经网络能运用于短时交通流量预测。本文的研究对其他复杂分类问题的解决也具有普遍的借鉴意义。七、参考文献1、易克初,田斌,付强语音信号处理M,北京:国防工业出版社,2OO0

20、2、林道荣、秦志林数学实验与数学建模北京:科学出版社,20113、刘亚丽等 “基于加权Md倒谱系数的说话人识别”,4、MATLAB中文论坛编著MATLAB神经网络30个案例分析,北京:北京航空航天大学出版社 , 2010.04八、附录8.1美尔倒普参数代码:clear;tic;t1=clock;Y,fs,bit=wavread(004.wav);x=Y(fs*10+1):fs*13),:wavwrite(x,fs,bit,test_new3.wav) ;%截取001.wav中10-13秒的语音% %对输入的语音序列x进行MFCC参数的提取,返回MFCC参数和一阶%差分MFCC参数,Mel滤波器

21、的阶数为24%fft变换的长度为256,采样频率为8000Hz,对x 256点分为一帧bank=melbankm(24,256,8000,0,0.5,m% 归一化mel滤波器组系数bank=full(bank);bank=bank/max(bank(:);% DCT系数,12*24for k=1:12 n=0:23; dctcoef(k,:)=cos(2*n+1)*k*pi/(2*24);end% 归一化倒谱提升窗口w = 1 + 6 * sin(pi * 1:12 ./ 12);w = w/max(w);% 预加重滤波器xx=double(x);xx=filter(1 -0.9375,1,x

22、x);% 语音信号分帧xx=enframe(xx,256,80);amp1=sum(abs(xx),2);amp2=sum(xx.*xx,2);amp3=sum(log(xx.*xx+eps),2);%短时能量不同表述subplot(311)%3种比较表述plot(amp1);ylabel(amp1subplot(312)plot(amp2);amp2subplot(313)plot(amp3);amp3% 计算每帧的MFCC参数for i=1:size(xx,1)%size(xx,1)返回xx的维数 y = xx(i,: s = y .* hamming(256);%加汉明窗 t = abs

23、(fft(s);%傅里叶变换 t = t.2;%计算能量 c1=dctcoef * log(bank * t(1:129);% dctcoef为DCT系数,bank归一化mel滤波器组系数 c2 = c1.*w; % w为归一化倒谱提升窗口 m(i,:)=c2%差分系数dtm = zeros(size(m);for i=3:size(m,1)-2 dtm(i,:) = -2*m(i-2,:) - m(i-1,:) + m(i+1,:) + 2*m(i+2,:dtm = dtm/3;%合并mfcc参数和一阶差分mfcc参数ccc4= m dtm;%去除首尾两帧,因为这两帧的一阶差分参数为0ccc

24、4 = ccc4(3:size(m,1)-2,:)disp(etime程序总运行时间:,num2str(etime(clock,t1);%figure(2)%subplot(211)%ccc_1=ccc(:,1);%plot(ccc_1);title(MFCC%ylabel(幅值%h,w=size(ccc);%A=size(ccc);%subplot(212)%plot(1,w,A);%xlabel(维数%title(维数与幅值的关系8.2音频001-004的前10行24列美尔倒普参数:001.wav004.wav部分特征参数(10行24列):8.2.1 音频001.wav8.2.2 音频002.wav8.2.3 音频003.wav8.2.4 音频004.wav8.3 说话人识别模型代码:% 清空环境变量clcclear% 训练数据预测数据提取及归一化%下载四类语音信号load data1 ccc1load data2

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1