说话人语音识别Word下载.docx

上传人:b****5 文档编号:17541800 上传时间:2022-12-07 格式:DOCX 页数:20 大小:169.03KB
下载 相关 举报
说话人语音识别Word下载.docx_第1页
第1页 / 共20页
说话人语音识别Word下载.docx_第2页
第2页 / 共20页
说话人语音识别Word下载.docx_第3页
第3页 / 共20页
说话人语音识别Word下载.docx_第4页
第4页 / 共20页
说话人语音识别Word下载.docx_第5页
第5页 / 共20页
点击查看更多>>
下载资源
资源描述

说话人语音识别Word下载.docx

《说话人语音识别Word下载.docx》由会员分享,可在线阅读,更多相关《说话人语音识别Word下载.docx(20页珍藏版)》请在冰豆网上搜索。

说话人语音识别Word下载.docx

说话人识别系统设计中的根本问题是如何从语音信号中提取表征人的基本特征。

即语音特征矢量的提取是整个说话人识别系统的基础,对说话人识别的错误拒绝率和错误接受率有着极其重要的影响。

同语音识别不同,说话人识别利用的是语音信号中的说话人信息,而不考虑语音中的字词意思,它强调说话人的个性。

因此,单一的语音特征矢量很难提高识别率,所以语音信号的时候如何提取信号中关键的成分尤为重要。

语音信号的特征参数的好坏直接导致了辨别的准确性。

系统在说话人的识别中采用基于Mel的频率倒谱系数的模板匹配的说话人识别方法。

具体的实现过程当中,采用了matlab软件来帮助完成这个项目。

在matlab中实现采集,分析,特征提取,配对,识别。

三.语音识别原理

3.1语音识别系统总体框架

说话人识别系统的总体结构如图1所示。

首先通过语音的录制作为输入信号,输入的模拟语音信号要进行预处理,包括预滤波、采样和量化、加窗、端点检测、预加重等等。

经过预处理后,接下来就是重要的一环:

特征参数提取。

具体要求是:

(1)提取的特征参数要能有效地代表语音特征,具有很好的区分性。

(2)各阶参数之间有良好的独立性。

(3)特征参数要计算方便,最好有高效的计算方法,以保证语音识别的实时实现。

测度估计识别决策识别结果

图1说话人语音识别系统总体框图

考虑到数据量、实时性以及识别率的问题,本文采用基于矢量量化的方法识别语音。

对于特征参数的选取,我们使用mfcc的方法来提取。

3.2语音信号预处理

3.2.1滤波

在模/数转换之前,通常要进行滤波处理,滤波的作用主要有两个:

一是用高通滤波器抑制50Hz电源噪声的干扰;

二是用低通滤波器滤除语音信号中频率分量超过采样频率一半的部分,防止采样信号的混叠。

3.2.2模数转换将原始采集得来的语音模拟信号转换为计算机能够处理的数字信号,就需要对其进行数字化,此过程成为数/模转换,最常见的方式就是脉冲编码调制(PalseCodeModulation),它的过程分为采样、量化和编码;

采样是对模拟信号进行周期性的扫描,将实际上连续变化的信号转换为时间上离散的信号,从而便于表示为计算机的语言。

根据Nyquist采样定理,当采样频率高于信号最高频率的一倍时,原来的连续信号就可以从采样样本中完全重建出来。

人耳可以分辨的声音频率范围为(20Hz,20KHz),因此,当采样的频率高于40KHz时,采样的过程就不会丢失信息,但考虑到设备的实际性能,且说话人语音频率主要集中在3.4KHz,故本系统以8KHz为采样率。

量化就是把经过采样得到的瞬时值将其幅度离散,即用一组规定的电平,把瞬时抽样值用最接近的电平值来表示出来,最终用整数倍的数字表示的过程。

经过时间上的采样后,连续的模拟信号变成了离散信号,再经过振幅的量化,把量化好的采样值用二进制代码表示出来,就转换成了数字信号。

编码:

就是用一组二进制码组来表示每一个有固定电平的量化值。

然而,实际上量化是在编码过程中同时完成的,故编码过程也就称为模/数转换,该系统以实验者50人的声音为分析样本,将语音信号都保存为符合RIFF规范的wav文件格式,便于在windows环境下处理。

语音信号是利用PC机录制,音频文件采用8000kHz采样频率、16bit量化、单声道的PCM录音,用MATLAB本身wavread函数来读取语音文件,直接将语音数据转化为数字信号。

3.2.3预加重、分帧及加窗预处理是指对语音信号的特殊处理:

预加重,分帧处理。

预加重的目的是提升高频部分,使信号的频谱变得平坦,以便于进行频谱分析或声道参数分析。

用具有6dB/倍频程的提升高频特性的预加重数字滤波器实现。

虽然语音信号是非平稳时变的,但是可以认为是局部短时平稳。

故语音信号分析常分段或分帧来处理。

在语音参数计算之前,一般要将其通过一个预加重滤波器,预加重目的是为了对语音的高频部分进行加重增加其高频分辨率,其函数为:

x=filter([1-0.9375],1,x);

“帧”,将语音信号截断的过程称之为“分帧”。

为了保持帧之间的平滑过渡,常相邻的两帧之间有少部分的重叠,这些重叠的部分叫做帧移。

在以后的语音信号识别过程中,都是依赖于每一帧多对应的数据序列所描述的语音信号特征来处理。

分帧操作主要是提取语音短时特性便于建模,一般取帧长30ms,帧移10ms;

在对语音信号进行截断处理形成帧后,通常会产生泄露(Gibbs)现象,为了防止此种现象的发生,我们通常运用一个长度有限的窗函数w(n)对语音短段进行变换或运算。

对于语音信号的每一帧来说,窗函数的宽度会影响语音信号的平滑性。

越宽的窗函数,对信号的平滑作用就会越显著,效果越好,窗函数过窄,则基本

对信号不起作用。

语音信号经过加窗处理后,两端的坡度会减小,窗口边缘两端也不会引起急剧变化,截取出的语音波形两端就会缓慢的过渡为零,这就有

效的减小语音帧的截断效应。

因此对于语音信号时域分析来说,窗函数的选择很重要,虽说矩形窗平滑比较好,但是容易丢失波形细节,并有可能造成泄漏现象。

而Hamming窗可以有效的克服泄漏现象。

所以在加窗方面常以Hamming窗为主,即:

3.3特征参数的提取

MFCC(Mel-sealedCepstrumCoefficients),即Mel频率倒谱参数,也叫做Mel尺度倒谱参数。

MFCC参数是基于人的听觉特性利用人听觉的屏蔽效应,在Mel标度频率域提取出来的倒谱特征参数。

这个参数的提取是将语音从时域变换至倒谱域,通过构造人的听觉模型,用滤波器组模仿人耳的滤波,语音通过滤波器组的输出为语音基本特征参数,然后做傅里叶变换

在语音识别处理信号过程中,MFCC参数是按照帧计算的。

其特征提取及计算过程如图2所示。

图2MFCC特征提取及计算流程

MFCC参数的提取过程如下:

1.对输入的语音信号进行分帧、加窗,然后作离散傅立叶变换,获得频谱分布信息。

设语音信号的DFT为:

N1j2nk

Xa(k)x(n)eN,0kN1

n1

(1)

其中式中x(n)为输入的语音信号,N表示傅立叶变换的点数。

2.再求频谱幅度的平方,得到能量谱。

3.将能量谱通过一组Mel尺度的三角形滤波器组。

我们定义一个有M个滤波器的滤波器组(滤波器的个数和临界带的个数相近),采用的滤波器为三角滤波器,中心频率为f(m),m=1,2,3,·

·

,M,本系统取M=100。

4.计算每个滤波器组输出的对数能量。

N1

2

S(m)ln(|Xa(k)|2Hm(k)),

k1

0mM1

(2)

其中Hm(k)为三角滤波器的频率响应。

5.经过离散弦变换(DCT)得到MFCC系数。

M1

C(n)S(m)cos(n(m0.5/m)),(3)

m0

0nN1

MFCC系数个数通常取20—30,常常不用0阶倒谱系数,因为它反映的是频谱能量,故在一般识别系统中,将称为能量系数,并不作为倒谱系数,本系统选取20阶倒谱系数。

3.4用矢量量化聚类法生成码本

在识别(匹配)阶段,我们用VQ方法计算平均失真测度(本系统在计算距离d时,采用欧氏距离测度),从而判断说话人是谁。

基于VQ的说话人识别系统,矢量量化起着双重作用。

在训练阶段,把每一个说话者所提取的特征参数进行分类,产生不同码字所组成的码本。

我们将每个待识的说话人看作是一个信源,用一个码本来表征。

码本是从该说话人的训练序列中提取的MFCC特征矢量聚类而生成。

只要训练的序列足够长,可认为这个码本有效地包含了说话人的个人特征,而与讲话的内容无关。

本系统采用基于分裂的LBG的算法设计VQ码本,Xk(k1,2,,K)为训练序列,B为码本。

具体实现过程如下:

1.取提取出来的所有帧的特征矢量的型心(均值)作为第一个码字矢量B1。

2.将当前的码本Bm根据以下规则分裂,形成2m个码字。

{BmBm

(1)

4)

n=0,D=∞,B为当前的码书),若相对失真小于某一阈值ε,迭代结束,前的码书就是设计好的2m个码字的码书,转5。

否则,转下一步。

量化失真量和:

K

D(n)mind(Xk,B)

k1(5)

相对失真:

D(n1)Dn

|n|

Dn(6)

4.重新计算各个区域的新型心,得到新的码书,转第3步。

5.重复2,3和4步,直到形成有M个码字的码书(M是所要求的码字数),其中D0=10000。

3.5VQ的说话人识别

语音识别系统结构框图如图3所示。

设是未知的说话人的特征矢量

{X1,,XT},共有T帧是训练阶段形成的码书,表示码书第m个码字,每一个码书有M个码字。

再计算测试者的平均量化失真D,并设置一个阈值,若D小于此阈值,则是原训练者,反之则认为不是原训练者。

D1/Tmin[d(xj,Bm)]

7)

j1

1mM

图3语音识别系统结构框图

四.仿真实现我们的系统分为两部分:

第一部分是先把50个人的声音保存成.wav的格式,放在一个文件夹中,作为说话人的声音模板检测的数据库。

第二部分是对检测者实行识别对已经保存的50个数字的语音提取mfcc特征者,进行辨别和实时的判断说话人是否为同一人。

在train.m调用Vqlbg.m获取训练录音的vq码本,而vqlbg.m调用mfcc.m获取单个录音的mel倒谱系数,接着mfcc.m调用melfb.m---将能量谱通过一组Mel尺度的三角形滤波器组。

在test.m函数文件中调用disteu.m计算训练录音(提供vq码本)与测试录音(提供mfcc)mel倒谱系数的距离,即判断两声音是否为同一录音者提供。

Disteu.m调用mfcc.m获取单个录音的mel倒谱系数。

mfcc.m调用Melfb.m---将能量谱通过一组Mel尺度的三角形滤波器组。

五总结

在matlab环境下实现基于矢量量化的说话人识别系统。

在实时录音的情况下,利用该说话人识别系统,对不同的人的1s~7s的语音进行辨识。

实现与文本无关的自动说话人确认的实时识别。

实验表明,该系统能较好地进行语音的识别,识别正确率达90%以上。

同时,基于矢量量化技术(VQ)的语音识别系统具有分类准确,存储数据少,实时响应速度快等综合性能好的特点.

原始语音s1的波形

543

000

附录1

40200-20

406080

1012

0.00度幅

00

50

44

3

35

30

25

20

zH/率频

-100

00.511.522.5时间/s

150

100

1000

500

00.511.522.5

时间/s

 

Mel滤波

1.8

1.6

1.4

1.2

1

0.8

0.6

0.4

0.2

10001500

20002500300035004000

频率/Hz

能量对数谱(第=43帧,帧长=128,帧数=471)

-50

-150

012

能量对数谱(第

数=117)

zH/率频

1时间/s

2Dplotofaccousticvectors

说话人1

说话人2

-4-3-2-1012345

5thDimension

说话人1

4000

/H率频

3500

3000

2500

2000

1500

原始能量谱

00.5

11.5

22.5

时间/s

450

400

350

300

250

200

目数器波滤

18

16

14

12

10

8

6

4

通过mel倒谱修正后的能量谱

1.5

700

600

附录2

functionM3=blockFrames(s,fs,m,n)

%blockFrames:

%Putsthesignalintoframes分帧函数

%Inputs:

%scontainsthesignaltoanalize语音信号

%fsisthesamplingrateofthesignal语音采样频率

两帧之间

%misthedistancebetweenthebeginningsoftwoframes

的距离

包含了所有的帧

%nisthenumberofsamplesperframe

%Output:

%M3isamatrixcontainingalltheframesl=length(s);

%语音信号的长度

nbFrame=floor((l-n)/m)+1;

fori=1:

n

forj=1:

nbFrame

M(i,j)=s(((j-1)*m)+i);

end

h=hamming(n);

M2=diag(h)*M;

%加汉明窗

M3(:

i)=fft(M2(:

i));

End

每帧的采样点数

数组形式,

%帧数

%逐帧扫描

%短时傅立叶变换

functioncode=train(traindir,n)

%计算wav文件的VQ码码本

%SpeakerRecognition:

TrainingStage

%Input:

soundfiles

%traindir:

stringnameofdirectorycontainsalltrain

%n:

numberoftrainfilesintraindir

%code:

trainedVQcodebooks,code{i}fori-thspeaker

%Note:

%Soundfilesintraindirissupposedtobe:

%s1.wav,s2.wav,...,sn.wav

%Example:

%>

>

code=train('

C:

\data\train\'

8);

k=16;

%numberofcentroidsrequired

n%trainaVQcodebookforeachspeaker

file=sprintf('

%ss%d.wav'

traindir,i);

disp(file);

[s,fs]=wavread(file);

v=mfcc(s,fs);

code{i}=vqlbg(v,k);

%ComputeMFCC'

s

%TrainVQcodebook

functiond=disteu(x,y)

oftwomatrices测

betweentwocolumn

%DISTEUPairwiseEuclideandistancesbetweencolumns试失真度

%x,y:

Twomatriceswhoseeachcolumnisanavectordata.

%d:

Elementd(i,j)willbetheEuclideandistancevectorsX(:

i)andY(:

j)

%TheEuclideandistanceDbetweentwovectorsXandYis:

%D=sum((x-y).^2).^0.5

[M,N]=size(x);

[M2,P]=size(y);

if(M~=M2)

error('

不匹配!

'

d=zeros(N,P);

if(N<

P)

copies=zeros(1,P);

forn=1:

N

d(n,:

)=sum((x(:

n+copies)-y).^2,1);

else

copies=zeros(1,N);

forp=1:

P

d(:

p)=sum((x-y(:

p+copies)).^2,1)'

;

d=d.^0.5;

function

m=melfb(p,n,fs)

%MELFB

Determinematrixforamel-spacedfilterbank

pnumberoffiltersinfilterbank

滤波器数

%

nlengthoffftFFT

变换的点数

fssamplerateinHz

采样频率

%Outputs:

xa(sparse)matrix

containingthe

filterbank

size(x)=[p,1+floor(n/2)]

%Usage:

Forexample,tocomputethemel-scalespectrumofa

amplitudes

colum-vectorsignals,withlengthnandsampleratefs:

f=fft(s);

m=melfb(p,n,fs);

n2=1+floor(n/2);

z=m*abs(f(1:

n2)).^2;

zwouldcontain

psamplesof

thedesiredmel-scale

Toplotfilterbankse.g.:

plot(linspace(0,

(12500/2),

129),melfb(20,256,

title('

Mel-spaced

filterbank'

),

xlabel('

Frequency

spectrum

12500)'

(Hz)'

);

f0=700/fs;

fn2=floor(n/2);

lr=log(1+0.5/f0)/(p+1);

%converttofftbinnumberswith0forDCtermbl=n*(f0*(exp([01pp+1]*lr)-1));

b1=floor(bl

(1))+1;

b2=ceil(bl

(2));

b3=floor(bl(3));

b4=min(fn2,ceil(bl(4)))-1;

pf=log(1+(b1:

b4)/n/f0)/lr;

fp=floor(pf);

pm=pf-fp;

r=[fp(b2:

b4)1+fp(1:

b3)];

c=[b2:

b41:

b3]+1;

v=2*[1-pm(b2:

b4)pm(1:

m=sparse(r,c,v,p,1+fn2);

functionr=mfcc(s,fs)%s声音信号的向量fs取样频率%MFCC

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 初中教育 > 数学

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1