ImageVerifierCode 换一换
格式:DOCX , 页数:8 ,大小:223.14KB ,
资源ID:17260863      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/17260863.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(概率图模型Word文档格式.docx)为本站会员(b****6)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

概率图模型Word文档格式.docx

1、这些问题出现在很多领域,包括模式识别、差错控制编码等。 概率图模型是解决这些问题的工具之一。从名字上可以看出,这是一种或是一类模型,同时运用了概率和图这两种数学工具来建立的模型。那么,很自然的有下一个问题1. 为什么要引入概率图模型? 对于一般的统计推断问题,概率模型能够很好的解决,那么引入概率图模型又能带来什么好处呢? LDPC码的译码算法中的置信传播算法的提出早于因子图,这在一定程度上说明概率图模型不是一个从不能解决问题到解决问题的突破,而是采用概率图模型能够更好的解决问题。模式识别和机器学习这本书在图模型的开篇就阐明了在概率模型中运用图这一工具带来的一些好的性质,包括 1. They p

2、rovide a simple way to visualize the structure of a probabilistic model and can be used to design and motivate new models. 2. Insights into the properties of the model, including conditional independence properties, can be obtained by inspection of the graph. 3. Complex computations, required to per

3、form inference and learning in sophisticated models, can be expressed in terms of graphical manipulations, in which underlying mathematical expressions are carried along implicitly. 简而言之,就是图使得概率模型可视化了,这样就使得一些变量之间的关系能够很容易的从图中观测出来;同时有一些概率上的复杂的计算可以理解为图上的信息传递,这是我们就无需关注太多的复杂表达式了。最后一点是,图模型能够用来设计新的模型。所以多引入

4、一数学工具是可以带来很多便利的,我想这就是数学的作用吧。 当然,我们也可以从另一个角度考虑其合理性。我们的目的是从获取到的量中得到我们要的信息,模型是相互之间约束关系的表示,而数据的处理过程中运用到了概率理论。而图恰恰将这两者之间联系起来了,起到了一个很好的表示作用。2.加法准则和乘法准则 涉及到概率的相关问题,无论有多复杂,大抵都是基于以下两个式子的加法准则和乘法准则。 第一个式子告诉我们当知道多个变量的概率分布时如何计算单个变量的概率分布,而第二个式子说明了两个变量之间概率的关系。譬如之间相互独立时应有 还有一个是著名的贝叶斯公式,这和上面的乘法准则是一样的(当然分母也可以用加法公式写,这

5、样就是那个全概率公式了)3.图和概率图模型 下面这张图片描述的就是图,它是由一些带有数字的圆圈和线段构成的,其中数字只是一种标识。我们将圆圈称为节点,将连接圆圈的节点称为边,那么图可以表示为。 如果边有方向,称图为有向图,否则为无向图; 两个节点是连通的是指两节点之间有一条路; 路是由节点和边交叉构成的; 上述定义都不太严格,具体可参考图论相关知识。有向图模型(贝叶斯网络) 举个例子,譬如有一组变量,如果每个变量只与其前一个变量有关(1阶马尔可夫过程),那么以下等式成立 那么如何用图来表示这一关系呢?自然,我们要表示的是右边的式子,右边的式子表示了变量之间的联系。而当我们观察条件概率时,我们发

6、现我们必须要指明哪个是条件。如果我们采用变量为节点,采用无向图这种节点等价的关系显然不能直接描述条件概率,因此这里选择了有向图来描述这一关系,即表示为 那么此时上述的1阶马尔可夫过程表示为,注意其中没有箭头指向,故表示意味着无条件。 有向图模型,或称贝叶斯网络,描述的是条件概率,或许这就是其被称为贝叶斯网络的原因吧。此处不再细说,更多内容(包括d-separation等)可参考后文提及的相关资料。无向图模型(马尔可夫随机场) 构造有向图模型需要变量之间显式的、很强的约束关系。即首先要有条件概率分布关系,其次还要是可求的。为了达到这一目的,很有可能我们要做很多不切实际的假设。譬如朴素贝叶斯(Na

7、ive Bayes)的假设就相当的Naive。如下所示,其假设往往是不成立的。 那什么是更弱的假设呢?很多时候我们知道两个变量之间一定是相关的,但我们不知道到底是怎么相关的。这时候我们也可以用其相关性来构造概率图模型。相关是不分方向的,此时我们应该选择无向图来表示。 和相关对应的是独立(实际上是不相关,这里不做区分了),我们可以这样来构造图模型,如果两个节点之间独立,那么没有路使其相连。条件独立即去掉条件中节点后,两节点之间没有路相连。具体可由PATTERN RECOGNITION and MACHINE LEARNING中的例子阐述 如上图所示,A中节点到B集合中节点的每一条路都通过了C中节

8、点,这代表着无向图模型很完美的将这种弱的关系表现出来了,有一种很神奇的感觉,但光表示是没有多大用处的,我们还是要计算概率。对于变量,显然有 但更显然的是我们不应该这样做,因为没有意义。所以他们是这样做的,为什么可以?我也没弄明白,我只是感觉了一下,觉得差不多思想是一样的,就是把概率分开,分开了才能体现特点。 将图中的节点分成多个小的集合Xc,其中集合内的点两两之间有边相连接,这些集合被称为cliques,那么概率分布满足 其中Z是归一化因子(使得概率之和为1),函数是势能函数,恒正。取为是能量函数,不得不说这是一个很神奇的东西。不太会就先总结到这里了。因子图 按理来说,无向+有向就全了。为什么

9、还有一类呢?或许严格来说不应该将因子图和上述两类并列的,但我不知道放到哪里去 因子,从名字中就强调了的两个字一定是其重要组成部分。而上述的两类图表现出的变量之间最终的关系实际上就是将概率分布化为了多个式子的乘积。对于多项式而言,我们有因式分解。譬如在解高次方程的时候,我们非常希望方程能够分解为多个低次方程的乘积。那么,对于概率分布函数而言,我们也希望能够这样做,即 其中,是中变量的子集,至于到底能够如何分解是取决于问题的,就好象多项式的分解取决于其具体形式。对于一个实际的问题,如果有以下关系 那么这一个式子的因子图表示如下 从这个例子,我们总结一下因子图是什么。因子图有两类节点,一是变量节点,

10、另一类为因子节点。这两类节点的内部没有边直接相连,变量的概率分布可以因式分解为因子节点的函数的乘积,因子节点的函数变量包括与其直接相连的变量节点。 三类图各有特点,适用于不同的场合,且这三类图是可以相互转换的。转换方式此处不做描述。4.举例HMM,隐马尔可夫模型,是一种有向图模型。这和上述的1阶马尔可夫过程是类似的,不同之处在于我们能够观测到的量不是过程本身,而是与其有一定关系的另一些量。HMM应用很广泛,可以参考隐马尔可夫模型(HMM)攻略RBM,限制玻尔兹曼机,无向图模型。了解深度学习相关知识的对这个应该很熟悉,看到无向图模型的时候就会发现,都有一个势能函数。这个我不太会,就不介绍了。图像

11、去噪,PRML中的一个例子,无向图模型。目的是从观测到的有噪声的图片中恢复出原始图片,做出的假设是观察到的图片像素点和原始图片相关,同时原始图片相邻像素点之间相关。LDPC译码,差错控制编码中的例子,因子图。其中Y是观测节点,和变量节点X相关,同时f是因子节点,约束是连接该节点的变量节点模2和为0。(也可以去掉Y,这样就是比较标准的因子图了)5.推理:和积算法 本节将以和积算法为例,说明概率图模型下的概率计算过程。和积算法也用在LDPC译码过程中,这一过程也将证实“一些概率上的复杂的计算可以理解为图上的信息传递,这是我们就无需关注太多的复杂表达式了”这一观点。和积算法作用在因子图上,旨在计算边

12、缘概率表示除之外的变量集合。 具体算法推导过程可以参考PRML的p402。这里仅简单叙述。最简单的情况是只有一个变量节点和因子节点,这个时候就不用算了。但实际情况不可能是这样的,但这并不影响我们采用化繁为简的思路。 这里我们做出一个假设是一旦我们断开了一条变量节点和因子节点的边,那么因子图就变成了两个互不连通的因子图。(否则则有环,但实际上很多有环的图采用这一算法也得到了很好的结果) 考虑图上的信息流动,从因子节点fs到变量节点x以及从变量节点x到因子节点fs。充分利用上述假设带来的结果,最后我们可以推得 以及 此处不做具体解释,仅说明何为“图上的信息传递”。推理过程和最后的结果都不是很直观,

13、但我们可以理解是因子节点传递给变量节点的信息,这包括除该变量节点之外的所有因子节点传递给校验节点的信息。表示为因子节点接收到的信息的乘积乘上因子节点本身的约束函数后求和。是变量节点传递给因子节点的信息,这表现为接收到的其他变量节点信息的乘积。6.参考和其他 本文主要参考了PATTERN RECOGNITION and MACHINE LEARNING(以下简称PRML)和Probabilistic Graphical Models:Principles and Techniques(以下简称PGM)这两本书。在本文的撰写过程中,还发现了CMU的同名公开课,并做了一定的参考(有些图是上面的)。

14、PRML只有一章讲图模型,内容远远没有PGM多,思路也不相同。CMU公开课的参考书籍是PGM,我看的是03版的,不知道10多年过去了有没有再版。PGM的结构是从以下三点来进行的Reprentation:如何建模以表示现实世界中的不确定性和各个量之间的关系。Inference:如何从我们建立的模型中去推知我们要求的问题(概率).Learnig:对于我的数据来说,什么模型是相对正确的? 这一思路致力于建立一个解决问题的框架,很多机器学习算法可以从这一框架下来理解。这一部分内容还没怎么看,如果有机会的再好好看看吧,现在实在是 这部分内容我也是初学,且主要在差错控制编码(LDPC)上,希望能和大家多多交流.

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1