语音识别技术基础知识Word文件下载.docx

上传人:b****1 文档编号:13724191 上传时间:2022-10-13 格式:DOCX 页数:13 大小:99.23KB
下载 相关 举报
语音识别技术基础知识Word文件下载.docx_第1页
第1页 / 共13页
语音识别技术基础知识Word文件下载.docx_第2页
第2页 / 共13页
语音识别技术基础知识Word文件下载.docx_第3页
第3页 / 共13页
语音识别技术基础知识Word文件下载.docx_第4页
第4页 / 共13页
语音识别技术基础知识Word文件下载.docx_第5页
第5页 / 共13页
点击查看更多>>
下载资源
资源描述

语音识别技术基础知识Word文件下载.docx

《语音识别技术基础知识Word文件下载.docx》由会员分享,可在线阅读,更多相关《语音识别技术基础知识Word文件下载.docx(13页珍藏版)》请在冰豆网上搜索。

语音识别技术基础知识Word文件下载.docx

是语音识别的技术还不够先进,还是人们不需要语音助手呢?

AmazonEcho的成功或许能给我一些启示。

AmazonEcho是亚马逊公司于2014年11月推出的一款家庭语音助手,能够实现包括购物、控制智能家居、阅读Kindle、预约Uber、跟踪(亚马逊)快递、订披萨、计时、算术、放音乐、找手机、模仿雨声等等诸多功能,一经推出就点燃了市场的热情,据国外研究机构统计,2015年Echo的销量是170万台左右,2016年则增长至650万余台,而截至2017年1月,亚马逊Echo的全球销量已超过700万台,预计今年将突破1100万台。

另据eMarketer的一份报告,在美国智能音箱市场,亚马逊Echo占据的市场份额超过70%。

同样是语音助手,为何Echo与Siri的境况如此不同呢,有研究者认为,这主要是两种产品使用环境不同而导致的。

对于大多数人而言,在公共场合拿出手机,对着一个机器人说话不但缺乏隐私,同时多少有些不适;

而在家庭中,面对家人和朋友,这点就能够有效避免,同时安静的环境更能有效提高机器识别的速度与精度,可以认为,AmazonEcho精准地切入了市场。

然而,其他巨头也不甘人后,纷纷推出了自己的家庭智能语音助手:

苹果推出了Homepod,而google也推出了googlehome.看来,一场语音大战已经风雨欲来。

二、语音识别的基本原理

所谓语音识别,就是将一段语音信号转换成相对应的文本信息,系统主要包含特征提取、声学模型,语言模型以及字典与解码四大部分,其中为了更有效地提取特征往往还需要对所采集到的声音信号进行滤波、分帧等预处理工作,把要分析的信号从原始信号中提取出来;

之后,特征提取工作将声音信号从时域转换到频域,为声学模型提供合适的特征向量;

声学模型中再根据声学特性计算每一个特征向量在声学特征上的得分;

而语言模型则根据语言学相关的理论,计算该声音信号对应可能词组序列的概率;

最后根据已有的字典,对词组序列进行解码,得到最后可能的文本表示。

1. 

声学信号预处理

作为语音识别的前提与基础,语音信号的预处理过程至关重要。

在最终进行模板匹配的时候,是将输入语音信号的特征参数同模板库中的特征参数进行对比,因此,只有在预处理阶段得到能够表征语音信号本质特征的特征参数,才能够将这些特征参数进行匹配进行识别率高的语音识别。

首先需要对声音信号进行滤波与采样,此过程主要是为了排除非人体发声以外频率的信号与50Hz电流频率的干扰,该过程一般是用一个带通滤波器、设定上下戒指频率进行滤波,再将原有离散信号进行量化处理实现的;

之后需要平滑信号的高频与低频部分的衔接段,从而可以在同一信噪比条件下对频谱进行求解,使得分析更为方便快捷;

分帧加窗操作是为了将原有频域随时间变化的信号具有短时平稳特性,即将连续的信号用不同长度的采集窗口分成一个个独立的频域稳定的部分以便于分析,此过程主要是采用预加重技术;

最后还需要进行端点检测工作,也就是对输入语音信号的起止点进行正确判断,这主要是通过短时能量(同一帧内信号变化的幅度)与短时平均过零率(同一帧内采样信号经过零的次数)来进行大致的判定,具体可以参考文末【参考文献】。

2.声学特征提取

完成信号的预处理之后,随后进行的就是整个过程中极为关键的特征提取的操作。

将原始波形进行识别并不能取得很好的识别效果,频域变换后提取的特征参数用于识别,而能用于语音识别的特征参数必须满足以下几点:

∙特征参数能够尽量描述语音的根本特征;

∙尽量降低参数分量之间的耦合,对数据进行压缩;

∙应使计算特征参数的过程更加简便,使算法更加高效。

基音周期、共振峰值等参数都可以作为表征语音特性的特征参数。

目前主流研究机构最常用到的特征参数有:

线性预测倒谱系数(LPCC)和Mel倒谱系数(MFCC)。

两种特征参数在倒谱域上对语音信号进行操作,前者以发声模型作为出发点,利用LPC技术求倒谱系数。

后者则模拟听觉模型,把语音经过滤波器组模型的输出做为声学特征,然后利用离散傅里叶变换(DFT)进行变换。

所谓基音周期,是指声带振动频率(基频)的振动周期,因其能够有效表征语音信号特征,因此从最初的语音识别研究开始,基音周期检测就是一个至关重要的研究点;

所谓共振峰,是指语音信号中能量集中的区域,因其表征了声道的物理特征,并且是发音音质的主要决定条件,因此同样是十分重要的特征参数。

关于这二者的详细提取方法以及目前主流的特征参数LPCC、MFCC等详细方法在此不再赘述,可以查阅文末【参考文献】。

此外,目前也有许多研究者开始将深度学习中一些方法应用在特征提取中,取得了较快的进展,这部分将在第3章中进行比较详细的介绍。

3.声学模型

声学模型是语音识别系统中非常重要的一个组件,对不同基本单元的区分能力直接关系到识别结果的好坏。

语音识别本质上一个模式识别的过程,而模式识别的核心是分类器和分类决策的问题。

通常,在孤立词、中小词汇量识别中使用动态时间规整(DTW)分类器会有良好的识别效果,并且识别速度快,系统开销小,是语音识别中很成功的匹配算法。

但是,在大词汇量、非特定人语音识别的时候,DTW识别效果就会急剧下降,这时候使用隐马尔科夫模型(HMM)进行训练识别效果就会有明显提升,由于在传统语音识别中一般采用连续的高斯混合模型GMM来对状态输出密度函数进行刻画,因此又称为GMM-HMM构架。

同时,随着深度学习的发展,通过深度神经网络来完成声学建模,形成所谓的DNN-HMM构架来取代传统的GMM-HMM构架,在语音识别上也取得了很好的效果,将在第3章中进行介绍,本章先对于高斯混合模型-隐马尔科夫模型(GMM-HMM)的基本理论进行介绍。

3.1高斯混合模型

对于一个随机向量x,如果它的联合概率密度函数符合公式2-9,则称它服从高斯分布,并记为x∼N(µ

Σ)。

其中,µ

为分布的期望,Σ为分布的协方差矩阵。

高斯分布有很强的近似真实世界数据的能力,同时又易于计算,因此被广泛地应用在各个学科之中。

但是,仍然有很多类型的数据不好被一个高斯分布所描述。

这时候我们可以使用多个高斯分布的混合分布来描述这些数据,由多个分量分别负责不同潜在的数据来源。

此时,随机变量符合密度函数。

其中,M为分量的个数,通常由问题规模来确定。

我们称认为数据服从混合高斯分布所使用的模型为高斯混合模型。

高斯混合模型被广泛的应用在很多语音识别系统的声学模型中。

考虑到在语音识别中向量的维数相对较大,所以我们通常会假设混合高斯分布中的协方差矩阵Σm为对角矩阵。

这样既大大减少了参数的数量,同时可以提高计算的效率。

使用高斯混合模型对短时特征向量建模有以下几个好处:

首先,高斯混合模型的具有很强的建模能力,只要分量总数足够多,高斯混合模型就可以以任意精度来逼近一个概率分布函数;

另外,使用EM算法可以很容易地使模型在训练数据上收敛。

对于计算速度和过拟合等问题,人们还研究出了参数绑定的GMM和子空间高斯混合模型(subspaceGMM)来解决。

除了使用EM算法作最大似然估计以外,我们还可以使用和词或音素错误率直接相关的区分性的误差函数来训练高斯混合模型,能够极大地提高系统性能。

因此,直到在声学模型中使用深度神经网络的技术出现之前,高斯混合模型一直是短时特征向量建模的不二选择。

但是,高斯混合模型同样具有一个严重的缺点:

高斯混合模型对于靠近向量空间上一个非线性流形(manifold)上的数据建模能力非常差。

例如,假设一些数据分布在一个球面两侧,且距离球面非常近。

如果使用一个合适的分类模型,我们可能只需要很少的参数就可以将球面两侧的数据区分开。

但是,如果使用高斯混合模型描绘他们的实际分布情况,我们需要非常多的高斯分布分量才能足够精确地刻画。

这驱使我们寻找一个能够更有效利用语音信息进行分类的模型。

3.2隐马尔科夫模型

我们现在考虑一个离散的随机序列,若转移概率符合马尔可夫性质,即将来状态和过去状态独立,则称其为一条马尔可夫链(MarkovChain)。

若转移概率和时间无关,则称其为齐次(homogeneous)马尔可夫链。

马尔可夫链的输出和预先定义好的状态一一对应,对于任意给定的状态,输出是可观测的,没有随机性。

如果我们对输出进行扩展,使马尔可夫链的每个状态输出为一个概率分布函数。

这样的话马尔可夫链的状态不能被直接观测到,只能通过受状态变化影响的符合概率分布的其他变量来推测。

我们称以这种以隐马尔可夫序列假设来建模数据的模型为隐马尔可夫模型。

对应到语音识别系统中,我们使用隐马尔可夫模型来刻画一个音素内部子状态变化,来解决特征序列到多个语音基本单元之间对应关系的问题。

在语音识别任务中使用隐马尔可夫模型需要计算模型在一段语音片段上的可能性。

而在训练的时候,我们需要使用Baum-Welch算法[23]学习隐马尔可夫模型参数,进行最大似然估计(MaximumLikelihoodEstimation,MLE)。

Baum-Welch算法是EM(Expectation-Maximization)算法的一种特例,利用前后项概率信息迭代地依次进行计算条件期望的E步骤和最大化条件期望的M步骤。

4.语言模型

语言模型主要是刻画人类语言表达的方式习惯,着重描述了词与词在排列结构上的内在联系。

在语音识别解码的过程中,在词内转移参考发声词典、词间转移参考语言模型,好的语言模型不仅能够提高解码效率,还能在一定程度上提高识别率。

语言模型分为规则模型和统计模型两类,统计语言模型用概率统计的方法来刻画语言单位内在的统计规律,其设计简单实用而且取得了很好的效果,已经被广泛用于语音识别、机器翻译、情感识别等领域。

最简单又却又最常用的语言模型是N元语言模型(N-gramLanguageModel,N-gramLM)。

N元语言模型假设当前在给定上文环境下,当前词的概率只与前N-1个词相关。

于是词序列w1,...,wm的概率P(w1,...,wm)可以近似为

为了得到公式中的每一个词在给定上文下的概率,我们需要一定数量的该语言文本来估算。

可以直接使用包含上文的词对在全部上文词对中的比例来计算该概率,即

对于在文本中未出现的词对,我们需要使用平滑方法来进行近似,如Good-Turing估计或Kneser-Ney平滑等。

5.解码与字典

解码器是识别阶段的核心组件,通过训练好的模型对语音进行解码,获得最可能的词序列,或者根据识别中间结果生成识别网格(lattice)以供后续组件处理。

解码器

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 幼儿教育 > 幼儿读物

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1