周志华-机器学习ppt-Chap07贝叶斯分类器PPT文件格式下载.pptx

上传人:wj 文档编号:13382281 上传时间:2022-10-10 格式:PPTX 页数:72 大小:4.67MB
下载 相关 举报
周志华-机器学习ppt-Chap07贝叶斯分类器PPT文件格式下载.pptx_第1页
第1页 / 共72页
周志华-机器学习ppt-Chap07贝叶斯分类器PPT文件格式下载.pptx_第2页
第2页 / 共72页
周志华-机器学习ppt-Chap07贝叶斯分类器PPT文件格式下载.pptx_第3页
第3页 / 共72页
周志华-机器学习ppt-Chap07贝叶斯分类器PPT文件格式下载.pptx_第4页
第4页 / 共72页
周志华-机器学习ppt-Chap07贝叶斯分类器PPT文件格式下载.pptx_第5页
第5页 / 共72页
点击查看更多>>
下载资源
资源描述

周志华-机器学习ppt-Chap07贝叶斯分类器PPT文件格式下载.pptx

《周志华-机器学习ppt-Chap07贝叶斯分类器PPT文件格式下载.pptx》由会员分享,可在线阅读,更多相关《周志华-机器学习ppt-Chap07贝叶斯分类器PPT文件格式下载.pptx(72页珍藏版)》请在冰豆网上搜索。

周志华-机器学习ppt-Chap07贝叶斯分类器PPT文件格式下载.pptx

基于后验概率可获得将样本分类为所产生的期望损失(expectedloss)或者称条件风险(conditionalrisk)我们的任务是寻找一个判定准则以最小化总体风险,贝叶斯决策论,显然,对每个样本,若能最小化条件风险,则总体风险也将被最小化。

贝叶斯决策论,显然,对每个样本,若能最小化条件风险,则总体风险也将被最小化。

这就产生了贝叶斯判定准则(Bayesdecisionrule):

为最小化总体风险,只需在每个样本上选择那个能使条件风险最小的类别标记,即此时,被称为贝叶斯最优分类器(Bayesoptimalclassifier),与之对应的总体风险称为贝叶斯风险(Bayesrisk)反映了分类起所能达到的最好性能,即通过机器学习所能产生的模型精度的理论上限。

贝叶斯决策论,具体来说,若目标是最小化分类错误率,则误判损失可写为,贝叶斯决策论,具体来说,若目标是最小化分类错误率,则误判损失可写为此时条件风险,贝叶斯决策论,具体来说,若目标是最小化分类错误率,则误判损失可写为此时条件风险于是,最小化分类错误率的贝叶斯最优分类器为即对每个样本,选择能使后验概率最大的类别标记。

贝叶斯决策论,不难看出,使用贝叶斯判定准则来最小化决策风险,首先要获得后验概率。

然而,在现实中通常难以直接获得。

机器学习所要实现的是基于有限的训练样本尽可能准确地估计出后验概率。

主要有两种策略:

判别式模型(discriminativemodels)给定,通过直接建模,来预测决策树,BP神经网络,支持向量机生成式模型(generativemodels)先对联合概率分布建模,再由此获得生成式模型考虑,贝叶斯决策论,生成式模型,贝叶斯决策论,生成式模型基于贝叶斯定理,可写成,贝叶斯决策论,生成式模型基于贝叶斯定理,可写成,先验概率样本空间中各类样本所占的比例,可通过各类样本出现的频率估计(大数定理),贝叶斯决策论,生成式模型基于贝叶斯定理,可写成,先验概率样本空间中各类样本所占的比例,可通过各类样本出现的频率估计(大数定理),“证据”(evidence)因子,与类标记无关,贝叶斯决策论,生成式模型基于贝叶斯定理,可写成,先验概率样本空间中各类样本所占的比例,可通过各类样本出现的频率估计(大数定理),“证据”(evidence)因子,与类标记无关,类标记相对于样本的“类条件概率”(class-conditionalprobability),或称“似然”。

章节目录,贝叶斯决策论极大似然估计朴素贝叶斯分类器半朴素贝叶斯分类器贝叶斯网EM算法,极大似然估计,估计类条件概率的常用策略:

先假定其具有某种确定的概率分布形式,再基于训练样本对概率分布参数估计。

记关于类别的类条件概率为,假设具有确定的形式被参数唯一确定,我们的任务就是利用训练集估计参数,极大似然估计,估计类条件概率的常用策略:

记关于类别的类条件概率为,假设具有确定的形式被参数唯一确定,我们的任务就是利用训练集估计参数概率模型的训练过程就是参数估计过程,统计学界的两个学派提供了不同的方案:

频率学派(frequentist)认为参数虽然未知,但却存在客观值,因此可通过优化似然函数等准则来确定参数值贝叶斯学派(Bayesian)认为参数是未观察到的随机变量、其本身也可由分布,因此可假定参数服从一个先验分布,然后基于观测到的数据计算参数的后验分布。

极大似然估计,令表示训练集中第类样本的组合的集合,假设这些样本是独立的,则参数对于数据集的似然是对进行极大似然估计,寻找能最大化似然的参数值。

直观上看,极大似然估计是试图在所有可能的取值中,找到一个使数据出现的“可能性”最大值。

式(7.9)的连乘操作易造成下溢,通常使用对数似然(log-likelihood)此时参数的极大似然估计为,极大似然估计,例如,在连续属性情形下,假设概率密度函数,则参数和的极大似然估计为也就是说,通过极大似然法得到的正态分布均值就是样本均值,方差就是的均值,这显然是一个符合直觉的结果。

需注意的是,这种参数化的方法虽能使类条件概率估计变得相对简单,但估计结果的准确性严重依赖于所假设的概率分布形式是否符合潜在的真实数据分布。

章节目录,贝叶斯决策论极大似然估计朴素贝叶斯分类器半朴素贝叶斯分类器贝叶斯网EM算法,朴素贝叶斯分类器,估计后验概率主要困难:

类条件概率是所有属性上的联合概率难以从有限的训练样本估计获得。

朴素贝叶斯分类器,估计后验概率主要困难:

朴素贝叶斯分类器(NaveBayesClassifier)采用了“属性条件独立性假设”(attributeconditionalindependenceassumption):

每个属性独立地对分类结果发生影响。

基于属性条件独立性假设,(7.8)可重写为其中为属性数目,为在第个属性上的取值。

朴素贝叶斯分类器,朴素贝叶斯分类器,由于对所有类别来说相同,因此基于式(7.6)的贝叶斯判定准则有这就是朴素贝叶斯分类器的表达式,朴素贝叶斯分类器,朴素贝叶斯分类器的训练器的训练过程就是基于训练集估计类先验概率并为每个属性估计条件概率。

令表示训练集中第类样本组合的集合,若有充足的独立同分布样本,则可容易地估计出类先验概率对离散属性而言,令表示中在第个属性上取值为的样本组成的集合,则条件概率可估计为对连续属性而言可考虑概率密度函数,假定,其中和分别是第类样本在第个属性上取值的均值和方差,则有,朴素贝叶斯分类器,例子:

用西瓜数据集3.0训练一个朴素贝叶斯分类器,对测试例“测1”进行分类(p151,西瓜数据集p84表4.3),拉普拉斯修正,若某个属性值在训练集中没有与某个类同时出现过,则直接计算会出现问题,.比如“敲声=清脆”测试例,训练集中没有该样例,因此连乘式计算的概率值为0,无论其他属性上明显像好瓜,分类结果都是“好瓜=否”,这显然不合理。

拉普拉斯修正,若某个属性值在训练集中没有与某个类同时出现过,则直接计算会出现问题,.比如“敲声=清脆”测试例,训练集中没有该样例,因此连乘式计算的概率值为0,无论其他属性上明显像好瓜,分类结果都是“好瓜=否”,这显然不合理。

为了避免其他属性携带的信息被训练集中未出现的属性值“抹去”,在估计概率值时通常要进行“拉普拉斯修正”(Laplaciancorrection)令表示训练集中可能的类别数,表示第个属性可能的取值数,则式(7.16)和(7.17)分别修正为现实任务中,朴素贝叶斯分类器的使用情形:

速度要求高,“查表”;

任务数据更替频繁,“懒惰学习”(lazylearning);

数据不断增加,增量学习等等。

章节目录,贝叶斯决策论极大似然估计朴素贝叶斯分类器半朴素贝叶斯分类器贝叶斯网EM算法,半朴素贝叶斯分类器,为了降低贝叶斯公式中估计后验概率的困难,朴素贝叶斯分类器采用的属性条件独立性假设;

对属性条件独立假设进行一定程度的放松,由此产生了一类称为“半朴素贝叶斯分类器”(semi-naveBayesclassifiers),半朴素贝叶斯分类器,为了降低贝叶斯公式中估计后验概率的困难,朴素贝叶斯分类器采用的属性条件独立性假设;

对属性条件独立假设记性一定程度的放松,由此产生了一类称为“半朴素贝叶斯分类器”(semi-naveBayesclassifiers)半朴素贝叶斯分类器最常用的一种策略:

“独依赖估计”(One-DependentEstimator,简称ODE),假设每个属性在类别之外最多仅依赖一个其他属性,即其中为属性所依赖的属性,称为的父属性对每个属性,若其父属性已知,则可估计概值,于是问题的关键转化为如何确定每个属性的父属性,SPODE,最直接的做法是假设所有属性都依赖于同一属性,称为“超父”(super-parenet),然后通过交叉验证等模型选择方法来确定超父属性,由此形成了SPODE(Super-ParentODE)方法。

图7.1朴素贝叶斯分类器与两种半朴素分类器所考虑的属性依赖关系在图7.1(b)中,是超父属性。

TAN,TAN(TreeaugmentedNaveBayes)Friedmanetal.,1997则在最大带权生成树(Maximumweightedspanningtree)算法ChowandLiu,1968的基础上,通过以下步骤将属性间依赖关系简约为图7.1(c)。

计算任意两个属性之间的条件互信息(CMI:

conditionalmutualinformation)以属性为结点构建完全图,任意两个结点之间边的权重设为构建此完全图的最大带权生成树,以每个属性为节点(nodenode),CMI为边(edgeedge)形成一张图。

找到这张图的最大带权生成树。

即找到一个节点之间的连接规则,这个规则满足三个条件:

1.能够连接所有节点;

2.使用最少数目的边;

3.边长(CMI)总和最大,最大带权生成树,再把节点连接关系设置为有向,即从父节点指向子节点。

在这里把最先出现的属性设置为根节点,再由根节点出发来确定边的方向,TAN,TAN(TreeaugmentedNaveBayes)Friedmanetal.,1997则在最大带权生成树(Maximumweightedspanningtree)算法ChowandLiu,1968的基础上,通过以下步骤将属性间依赖关系简约为图7.1(c)。

计算任意两个属性之间的条件互信息(conditionalmutualinformation)以属性为结点构建完全图,任意两个结点之间边的权重设为构建此完全图的最大带权生成树,挑选根变量,将边设为有向;

加入类别节点y,增加从y到每个属性的有向边。

AODE,AODE(AveragedOne-DependentEstimator)Webbetal.2005是一种基于集成学习机制、且更为强大的分类器。

尝试将每个属性作为超父构建SPODE-共d个将具有足够训练数据支撑的SPODE集群起来作为最终结果其中,是在第个属性上取值的样本的集合,为阈值常数其中,是在第个属性上取值数,是类别为且在第个属性上取值为的样本集合,是类别为

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 高等教育 > 教育学

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1