首页 周志华机器学习西瓜书全书16章pptChap07贝叶斯分类器

周志华机器学习西瓜书全书16章pptChap07贝叶斯分类器

举报
开通vip

周志华机器学习西瓜书全书16章pptChap07贝叶斯分类器周志华机器学习西瓜书全书16章pptChap07贝叶斯分类器章节目录贝叶斯决策论极大似然估计朴素贝叶斯分类器半朴素贝叶斯分类器贝叶斯网EM算法章节目录贝叶斯决策论极大似然估计朴素贝叶斯分类器半朴素贝叶斯分类器贝叶斯网EM算法贝叶斯决策论贝叶斯决策论(Bayesiandecisiontheory)是在概率框架下实施决策的基本方法。在分类问题情况下,在所有相关概率都已知的理想情形下,贝叶斯决策考虑如何基于这些概率和误判损失来选择最优的类别标记。贝叶斯决策论贝叶斯决策论(Bayesiandecisiontheory)是在...

周志华机器学习西瓜书全书16章pptChap07贝叶斯分类器
周志华机器学习西瓜 关于书的成语关于读书的排比句社区图书漂流公约怎么写关于读书的小报汉书pdf 全书16章pptChap07贝叶斯分类器章节目录贝叶斯决策论极大似然估计朴素贝叶斯分类器半朴素贝叶斯分类器贝叶斯网EM算法章节目录贝叶斯决策论极大似然估计朴素贝叶斯分类器半朴素贝叶斯分类器贝叶斯网EM算法贝叶斯决策论贝叶斯决策论(Bayesiandecisiontheory)是在概率框架下实施决策的基本方法。在分类问题情况下,在所有相关概率都已知的理想情形下,贝叶斯决策考虑如何基于这些概率和误判损失来选择最优的类别标记。贝叶斯决策论贝叶斯决策论(Bayesiandecisiontheory)是在概率框架下实施决策的基本方法。在分类问题情况下,在所有相关概率都已知的理想情形下,贝叶斯决策考虑如何基于这些概率和误判损失来选择最优的类别标记。假设有种可能的类别标记,即,是将一个真实标记为的样本误分类为所产生的损失。基于后验概率可获得将样本分类为所产生的期望损失(expectedloss)或者称条件风险(conditionalrisk)我们的任务是寻找一个判定准则以最小化总体风险贝叶斯决策论显然,对每个样本,若能最小化条件风险,则总体风险也将被最小化。贝叶斯决策论显然,对每个样本,若能最小化条件风险,则总体风险也将被最小化。这就产生了贝叶斯判定准则(Bayesdecisionrule):为最小化总体风险,只需在每个样本上选择那个能使条件风险最小的类别标记,即此时,被称为贝叶斯最优分类器(Bayesoptimalclassifier),与之对应的总体风险称为贝叶斯风险(Bayesrisk)反映了分类起所能达到的最好性能,即通过机器学习所能产生的模型精度的理论上限。贝叶斯决策论具体来说,若目标是最小化分类错误率,则误判损失可写为贝叶斯决策论具体来说,若目标是最小化分类错误率,则误判损失可写为此时条件风险贝叶斯决策论具体来说,若目标是最小化分类错误率,则误判损失可写为此时条件风险于是,最小化分类错误率的贝叶斯最优分类器为即对每个样本,选择能使后验概率最大的类别标记。贝叶斯决策论不难看出,使用贝叶斯判定准则来最小化决策风险,首先要获得后验概率。然而,在现实中通常难以直接获得。机器学习所要实现的是基于有限的训练样本尽可能准确地估计出后验概率。主要有两种策略:判别式模型(discriminativemodels)给定,通过直接建模,来预测决策树,BP神经网络,支持向量机生成式模型(generativemodels)先对联合概率分布建模,再由此获得生成式模型考虑11贝叶斯决策论生成式模型贝叶斯决策论生成式模型基于贝叶斯定理,可写成贝叶斯决策论生成式模型基于贝叶斯定理,可写成先验概率样本空间中各类样本所占的比例,可通过各类样本出现的频率估计(大数定理)贝叶斯决策论生成式模型基于贝叶斯定理,可写成先验概率样本空间中各类样本所占的比例,可通过各类样本出现的频率估计(大数定理)“证据”(evidence)因子,与类标记无关贝叶斯决策论生成式模型基于贝叶斯定理,可写成先验概率样本空间中各类样本所占的比例,可通过各类样本出现的频率估计(大数定理)“证据”(evidence)因子,与类标记无关类标记相对于样本的“类条件概率”(class-conditionalprobability),或称“似然”。章节目录贝叶斯决策论极大似然估计朴素贝叶斯分类器半朴素贝叶斯分类器贝叶斯网EM算法极大似然估计估计类条件概率的常用策略:先假定其具有某种确定的概率分布形式,再基于训练样本对概率分布参数估计。记关于类别的类条件概率为,假设具有确定的形式被参数唯一确定,我们的任务就是利用训练集估计参数极大似然估计估计类条件概率的常用策略:先假定其具有某种确定的概率分布形式,再基于训练样本对概率分布参数估计。记关于类别的类条件概率为,假设具有确定的形式被参数唯一确定,我们的任务就是利用训练集估计参数概率模型的训练过程就是参数估计过程,统计学界的两个学派提供了不同的 方案 气瓶 现场处置方案 .pdf气瓶 现场处置方案 .doc见习基地管理方案.doc关于群访事件的化解方案建筑工地扬尘治理专项方案下载 :频率学派(frequentist)认为参数虽然未知,但却存在客观值,因此可通过优化似然函数等准则来确定参数值贝叶斯学派(Bayesian)认为参数是未观察到的随机变量、其本身也可由分布,因此可假定参数服从一个先验分布,然后基于观测到的数据计算参数的后验分布。极大似然估计令 关于同志近三年现实表现材料材料类招标技术评分表图表与交易pdf视力表打印pdf用图表说话 pdf 示训练集中第类样本的组合的集合,假设这些样本是独立的,则参数对于数据集的似然是对进行极大似然估计,寻找能最大化似然的参数值。直观上看,极大似然估计是试图在所有可能的取值中,找到一个使数据出现的“可能性”最大值。极大似然估计令表示训练集中第类样本的组合的集合,假设这些样本是独立的,则参数对于数据集的似然是对进行极大似然估计,寻找能最大化似然的参数值。直观上看,极大似然估计是试图在所有可能的取值中,找到一个使数据出现的“可能性”最大值。式(7.9)的连乘操作易造成下溢,通常使用对数似然(log-likelihood)此时参数的极大似然估计为极大似然估计例如,在连续属性情形下,假设概率密度函数,则参数和的极大似然估计为也就是说,通过极大似然法得到的正态分布均值就是样本均值,方差就是的均值,这显然是一个符合直觉的结果。需注意的是,这种参数化的方法虽能使类条件概率估计变得相对简单,但估计结果的准确性严重依赖于所假设的概率分布形式是否符合潜在的真实数据分布。章节目录贝叶斯决策论极大似然估计朴素贝叶斯分类器半朴素贝叶斯分类器贝叶斯网EM算法朴素贝叶斯分类器估计后验概率主要困难:类条件概率是所有属性上的联合概率难以从有限的训练样本估计获得。朴素贝叶斯分类器估计后验概率主要困难:类条件概率是所有属性上的联合概率难以从有限的训练样本估计获得。朴素贝叶斯分类器(NaïveBayesClassifier)采用了“属性条件独立性假设”(attributeconditionalindependenceassumption):每个属性独立地对分类结果发生影响。朴素贝叶斯分类器估计后验概率主要困难:类条件概率是所有属性上的联合概率难以从有限的训练样本估计获得。朴素贝叶斯分类器(NaïveBayesClassifier)采用了“属性条件独立性假设”(attributeconditionalindependenceassumption):每个属性独立地对分类结果发生影响。基于属性条件独立性假设,(7.8)可重写为其中为属性数目,为在第个属性上的取值。朴素贝叶斯分类器朴素贝叶斯分类器由于对所有类别来说相同,因此基于式(7.6)的贝叶斯判定准则有这就是朴素贝叶斯分类器的表达式朴素贝叶斯分类器朴素贝叶斯分类器的训练器的训练过程就是基于训练集估计类先验概率并为每个属性估计条件概率。令表示训练集中第类样本组合的集合,若有充足的独立同分布样本,则可容易地估计出类先验概率对离散属性而言,令表示中在第个属性上取值为的样本组成的集合,则条件概率可估计为对连续属性而言可考虑概率密度函数,假定,其中和分别是第类样本在第个属性上取值的均值和方差,则有朴素贝叶斯分类器例子:用西瓜数据集3.0训练一个朴素贝叶斯分类器,对测试例“测1”进行分类(p151,西瓜数据集p84表4.3)拉普拉斯修正若某个属性值在训练集中没有与某个类同时出现过,则直接计算会出现问题,.比如“敲声=清脆”测试例,训练集中没有该样例,因此连乘式计算的概率值为0,无论其他属性上明显像好瓜,分类结果都是“好瓜=否”,这显然不合理。拉普拉斯修正若某个属性值在训练集中没有与某个类同时出现过,则直接计算会出现问题,.比如“敲声=清脆”测试例,训练集中没有该样例,因此连乘式计算的概率值为0,无论其他属性上明显像好瓜,分类结果都是“好瓜=否”,这显然不合理。为了避免其他属性携带的信息被训练集中未出现的属性值“抹去”,在估计概率值时通常要进行“拉普拉斯修正”(Laplaciancorrection)令表示训练集中可能的类别数,表示第个属性可能的取值数,则式(7.16)和(7.17)分别修正为现实任务中,朴素贝叶斯分类器的使用情形:速度 要求 对教师党员的评价套管和固井爆破片与爆破装置仓库管理基本要求三甲医院都需要复审吗 高,“查表”;任务数据更替频繁,“懒惰学习”(lazylearning);数据不断增加,增量学习等等。章节目录贝叶斯决策论极大似然估计朴素贝叶斯分类器半朴素贝叶斯分类器贝叶斯网EM算法半朴素贝叶斯分类器为了降低贝叶斯公式中估计后验概率的困难,朴素贝叶斯分类器采用的属性条件独立性假设;对属性条件独立假设进行一定程度的放松,由此产生了一类称为“半朴素贝叶斯分类器”(semi-naïveBayesclassifiers)半朴素贝叶斯分类器为了降低贝叶斯公式中估计后验概率的困难,朴素贝叶斯分类器采用的属性条件独立性假设;对属性条件独立假设记性一定程度的放松,由此产生了一类称为“半朴素贝叶斯分类器”(semi-naïveBayesclassifiers)半朴素贝叶斯分类器最常用的一种策略:“独依赖估计”(One-DependentEstimator,简称ODE),假设每个属性在类别之外最多仅依赖一个其他属性,即其中为属性所依赖的属性,称为的父属性对每个属性,若其父属性已知,则可估计概值,于是问题的关键转化为如何确定每个属性的父属性SPODE最直接的做法是假设所有属性都依赖于同一属性,称为“超父”(super-parenet),然后通过交叉验证等模型选择方法来确定超父属性,由此形成了SPODE(Super-ParentODE)方法。图7.1朴素贝叶斯分类器与两种半朴素分类器所考虑的属性依赖关系在图7.1(b)中,是超父属性。TANTAN(TreeaugmentedNaïveBayes)[Friedmanetal.,1997]则在最大带权生成树(Maximumweightedspanningtree)算法[ChowandLiu,1968]的基础上,通过以下步骤将属性间依赖关系简约为图7.1(c)。计算任意两个属性之间的条件互信息(CMI:conditionalmutualinformation)以属性为结点构建完全图,任意两个结点之间边的权重设为构建此完全图的最大带权生成树以每个属性为节点(nodenode),CMI为边(edgeedge)形成一张图。找到这张图的最大带权生成树。即找到一个节点之间的连接规则,这个规则满足三个条件:1.能够连接所有节点;2.使用最少数目的边;3.边长(CMI)总和最大最大带权生成树再把节点连接关系设置为有向,即从父节点指向子节点。在这里把最先出现的属性设置为根节点,再由根节点出发来确定边的方向TANTAN(TreeaugmentedNaïveBayes)[Friedmanetal.,1997]则在最大带权生成树(Maximumweightedspanningtree)算法[ChowandLiu,1968]的基础上,通过以下步骤将属性间依赖关系简约为图7.1(c)。计算任意两个属性之间的条件互信息(conditionalmutualinformation)以属性为结点构建完全图,任意两个结点之间边的权重设为构建此完全图的最大带权生成树,挑选根变量,将边设为有向;加入类别节点y,增加从y到每个属性的有向边。AODEAODE(AveragedOne-DependentEstimator)[Webbetal.2005]是一种基于集成学习机制、且更为强大的分类器。尝试将每个属性作为超父构建SPODE---共d个将具有足够训练数据支撑的SPODE集群起来作为最终结果其中,是在第个属性上取值的样本的集合,为阈值常数其中,是在第个属性上取值数,是类别为且在第个属性上取值为的样本集合,是类别为且在第i个属性上取值,第j个属性上取值为的样本集合章节目录贝叶斯决策论极大似然估计朴素贝叶斯分类器半朴素贝叶斯分类器贝叶斯网EM算法贝叶斯网贝叶斯网(Bayesiannetwork)亦称“信念网”(briefnetwork),它借助有向无环图(DirectedAcyclicGraph,DAG)来刻画属性间的依赖关系,并使用条件概率表(ConditionalProbabilityTable,CPT)来表述属性的联合概率分布。 贝叶斯网贝叶斯网(Bayesiannetwork)亦称“信念网”(briefnetwork),它借助有向无环图(DirectedAcyclicGraph,DAG)来刻画属性间的依赖关系,并使用条件概率表(ConditionalProbabilityTable,CPT)来表述属性的联合概率分布。 贝叶斯网:结构贝叶斯网有效地表达了属性间的条件独立性。给定父结点集,贝叶斯网假设每个属性与他的非后裔属性独立。将属性的联合概率分布定义为图7.2的联合概率分布定义为:显然,和在给定的取值时独立,和在给定的取值时独立,记为和。贝叶斯网有效地表达了属性间的条件独立性。给定父结点集,贝叶斯网假设每个属性与他的非后裔属性独立。将属性的联合概率分布定义为图7.2的联合概率分布定义为:显然,和在给定的取值时独立,和在给定的取值时独立,记为和。贝叶斯网:结构贝叶斯网中三个变量之间的典型依赖关系:V型结构顺序结构同父结构贝叶斯网:结构贝叶斯网中三个变量之间的典型依赖关系:同父结构贝叶斯网:结构贝叶斯网中三个变量之间的典型依赖关系:顺序结构贝叶斯网:结构贝叶斯网中三个变量之间的典型依赖关系:顺序结构贝叶斯网:结构贝叶斯网中三个变量之间的典型依赖关系:V型结构贝叶斯网:结构贝叶斯网中三个变量之间的典型依赖关系:V型结构╨贝叶斯网:结构贝叶斯网中三个变量之间的典型依赖关系:分析有向图中变量间的条件独立性,可使用“有向分离”(Directed-separation),将一个有向图转化为无向图V型结构父结点相连有向边变成无向边由此产生的图称为道德图(moralgraph)同父结构V型结构顺序结构(好瓜)(敲声)(甜度)(色泽)(根蒂)条件独立性分析---“有向分离”法分析有向图中变量间的条件独立性,可使用“有向分离”(Directed-separation),将一个有向图转化为无向图V型结构父结点相连有向边变成无向边由此产生的图称为道德图(moralgraph)(好瓜)(敲声)(甜度)(色泽)(根蒂)--------将父结点相连的过程称为“道德化”过程“道德化”就是孩子的父母应建立牢靠的关系,否者不道德条件独立性分析---道德图贝叶斯网:学习---寻找到这个贝叶斯网贝叶斯网络首要任务:根据训练集找出结构最“恰当”的贝叶斯网。我们用评分函数评估贝叶斯网与训练数据的契合程度。贝叶斯网:学习贝叶斯网络首要任务:根据训练集找出结构最“恰当”的贝叶斯网。我们用评分函数评估贝叶斯网与训练数据的契合程度。“最小描述长度”(MinimalDescriptionLength,MDL)综合编码长度(包括描述网路和编码数据)最短给定训练集,贝叶斯网在上的评价函数可以写为其中,是贝叶斯网的参数个数;表示描述每个参数所需的字节数,而是贝叶斯网的对数似然。学习任务:寻找一个合适的网络使得s最 小学 小学生如何制作手抄报课件柳垭小学关于三违自查自纠报告小学英语获奖优质说课课件小学足球课教案全集小学语文新课程标准测试题 习任务:寻找一个合适的网络使得s最小学习任务:寻找一个合适的网络使得s最小贝叶斯网:推断通过已知变量观测值来推测其他变量的取值过程称为“推断”(inference),已知变量观测值称为“证据”(evidence)。最理想的是根据贝叶斯网络定义的联合概率分布来精确计算后验概率,在现实应用中,贝叶斯网的近似推断常使用吉布斯采样(Gibbssampling)来完成。贝叶斯网:推断、Gibbs采样通过已知变量观测值来推测待推测查询变量的过程称为“推断”(inference),已知变量观测值称为“证据”(evidence)。最理想的是根据贝叶斯网络定义的联合概率分布来精确计算后验概率,在现实应用中,贝叶斯网的近似推断常使用吉布斯采样(Gibbssampling)来完成。吉布斯采样就是随机产生一个与证据一致的样本作为初始点,然后每步从当前样本出发产生下一个样本。采样概率由贝叶斯网B决定。假定经过次采样的得到与一致的样本共有个,则可近似估算出后验概率吉布斯采样可以看做,每一步仅依赖于前一步的状态贝叶斯网:推断图7.5吉布斯采样算法章节目录贝叶斯决策论极大似然估计朴素贝叶斯分类器半朴素贝叶斯分类器贝叶斯网EM算法EM算法“不完整”的样本:西瓜已经脱落的根蒂,无法看出是“蜷缩”还是“坚挺”,则训练样本的“根蒂”属性变量值未知,如何计算?EM算法“不完整”的样本:西瓜已经脱落的根蒂,无法看出是“蜷缩”还是“坚挺”,则训练样本的“根蒂”属性变量值未知,如何计算?未观测的变量称为“隐变量”(latentvariable)。令表示已观测变量集,表示隐变量集,若预对模型参数做极大似然估计,则应最大化对数似然函数EM算法“不完整”的样本:西瓜已经脱落的根蒂,无法看出是“蜷缩”还是“坚挺”,则训练样本的“根蒂”属性变量值未知,如何计算?未观测的变量称为“隐变量”(latentvariable)。令表示已观测变量集,表示隐变量集,若预对模型参数做极大似然估计,则应最大化对数似然函数由于是隐变量,上式无法直接求解。此时我们可以通过对计算期望,来最大化已观测数据的对数“边际似然”(marginallikelihood)EM算法EM(Expectation-Maximization)算法[Dempsteretal.,1977]是常用的估计参数隐变量的利器。当参数已知->根据训练数据推断出最优隐变量的值(E步)当已知->对做极大似然估计(M步)EM算法EM(Expectation-Maximization)算法[Dempsteretal.,1977]是常用的估计参数隐变量的利器。当参数已知->根据训练数据推断出最优隐变量的值(E步)当已知->对做极大似然估计(M步)于是,以初始值为起点,对式子(7.35),可迭代执行以下步骤直至收敛:基于推断隐变量的期望,记为;基于已观测到变量和对参数做极大似然估计,记为;这就是EM算法的原型。EM算法 进一步,若我们不是取Z的期望,而是基于计算隐变量的概率分布,则EM算法的两个步骤是:E步(Expectation):以当前参数推断隐变量分布,并计算对数似然关于的期望:M步(Maximization):寻找参数最大化期望似然,即EM算法使用两个步骤交替计算:第一步计算期望(E步),利用当前估计的参数值计算对数似然的参数值;第二步最大化(M步),寻找能使E步产生的似然期望最大化的参数值……直至收敛到全局最优解。
本文档为【周志华机器学习西瓜书全书16章pptChap07贝叶斯分类器】,请使用软件OFFICE或WPS软件打开。作品中的文字与图均可以修改和编辑, 图片更改请在作品中右键图片并更换,文字修改请直接点击文字进行修改,也可以新增和删除文档中的内容。
该文档来自用户分享,如有侵权行为请发邮件ishare@vip.sina.com联系网站客服,我们会及时删除。
[版权声明] 本站所有资料为用户分享产生,若发现您的权利被侵害,请联系客服邮件isharekefu@iask.cn,我们尽快处理。
本作品所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用。
网站提供的党政主题相关内容(国旗、国徽、党徽..)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
下载需要: ¥12.0 已有0 人下载
最新资料
资料动态
专题动态
个人认证用户
小吴
多年维修电工经验
格式:ppt
大小:4MB
软件:PowerPoint
页数:0
分类:工学
上传时间:2020-02-26
浏览量:45