首页 模式识别习题课

模式识别习题课

举报
开通vip

模式识别习题课在图像识别中,假定有灌木和坦克2种类型,它们的先验概率分别是0.7和0.3,损失函数如下表所示。其中,类型w1和w2分别表示灌木和坦克,判决a1=w1,a2=w2。现在做了2次实验,获得2个样本的类概率密度如下:状态损失决策W1W2a10.52a241.0(1)试用最小错误率贝叶斯准则判决2个样本各属于哪一类?坦克、灌木。(2)试用最小风险决策规则判决2个样本各属于哪一类?灌木、灌木。答:(1)最小错误率贝叶斯准则(2)最小风险决策规则给出二维样本数据(-1,1),(2,2),(1,-1),...

模式识别习题课
在图像识别中,假定有灌木和坦克2种类型,它们的先验概率分别是0.7和0.3,损失函数如下表所示。其中,类型w1和w2分别表示灌木和坦克,判决a1=w1,a2=w2。现在做了2次实验,获得2个样本的类概率密度如下:状态损失决策W1W2a10.52a241.0(1)试用最小错误率贝叶斯准则判决2个样本各属于哪一类?坦克、灌木。(2)试用最小风险决策规则判决2个样本各属于哪一类?灌木、灌木。答:(1)最小错误率贝叶斯准则(2)最小风险决策规则给出二维样本数据(-1,1),(2,2),(1,-1),(-2,-2),试用K-L变换作一维数据压缩。答:数据压缩结果:0,,0,0---算出m后应该把它当作坐标原点重新计算其他坐标值3---|λE-A|=0(λE-A)*X=00向量平移坐标系,将模式的总体均值向量作为新坐标系的原点求随机向量X的自相关矩阵求自相关矩阵的n个特征值及其对应的特征向量将特征值从大到小排序,取前m个大的特征值所对应的特征向量构成新的变换矩阵将n维向量变换为m维新向量已知两类的数据:ω1:(1,0),(2,0),(1,1);ω2:(-1,0),(0,1),(-1,1),试求该组数据的类内与类间散布矩阵。Sw(within)neileiSb(betwwen)neijian4、已知欧氏二维空间中两类9个训练样本w1:(-1,0)T,(-2,0)T,(-2,1)T,(-2,-1)Tw2:(1,1)T,(2,0)T,(1,-1)T,(2,1)T,(2,2)T,试分别用最近邻法和K近邻法求测试样本(0,0)T的分类,取K=5,7。答:最近邻法:最近邻为(-1,0)T分类为w1K近邻法:K=5:5个近邻为1类的(-1,0)T,(-2,0)T,2类的(1,1)T,(2,0)T,(1,-1)T分类为w2K=7:1)若近邻为1类的(-1,0)T,(-2,0)T,(-2,1)T,(-2,-1)T,2类的(1,1)T,(2,0)T,(1,-1)T,则分类为w12)若近邻为1类的(-1,0)T,(-2,0)T,(-2,1)T或(-2,-1)T两个之一,2类的(1,1)T,(2,0)T,(1,-1)T,(2,1)T,则分类为w22、已知两类的训练样本:w1(0,0)T,(0,2)T;w2(2,0)T,(2,2)T,试用最小平方误差准则算法进行分类器训练,求解向量w*。1.什么是模式与模式识别【模式:对象之间存在的规律性关系,模式识别:是研究用计算机来实现人类模式识别能力的一门学科】2.什么是误差平方和准则对于一个给定的聚类,均值向量是最能代表聚类中所有样本的一个向量,也称其为聚类中心。一个好的聚类方法应能使集合中的所有向量与这个均值向量的误差的长度平方和最小。3.确定线性分类器的主要步骤采集训练样本,构成训练样本集。样本应该具有典型性确定一个准则J=J(w,x),能反映分类器性能,且存在权值w*使得分类器性能最优设计求解w的最优算法,得到解向量w*4.分级聚类算法的2种基本途径是什么按事物的相似性,或内在联系组织起来,组成有层次的结构,使得本质上最接近的划为一类,然后把相近的类再合并,依次类推,这就是分级聚类算法的基本思想。聚合法:把所有样本各自看为一类,逐级聚合成一类。基本思路是根据类间相似性大小逐级聚合,每级只把相似性最大的两类聚合成一类,最终把所有样本聚合为一类。分解法:把所有样本看做一类,逐级分解为每个样本一类。5.什么是K近邻法取未知样本x的k个近邻,看这k个近邻中多数属于哪一类,就把x归为哪一类。6.监督学习与非监督学习的区别利用已经标定类别的样本集进行分类器设计的方法称为监督学习。很多情况下无法预先知道样本的类别,从没有标记的样本集开始进行分类器设计,这就是非监督学习7.什么是支持向量机过两类样本中离分类面最近的点且平行于最优分类面的超平面上的训练样本,叫做支持向量。支持向量机的基本思想:首先通过非线性变换将输入空间变换到一个高维空间,然后在这个新空间中求取最优线性分类面,而这种非线性变换是通过定义适当的内积函数实现的。8.近邻法的基本思想是什么作为一种分段线性判别函数的极端情况,将各类中全部样本都作为代表点,这样的决策方法就是近邻法的基本思想。9.描述K均值聚类算法给定一个数据点集合和需要的聚类数目k,k由用户指定,k均值算法根据某个距离函数反复把数据分入k个聚类中。先随机选取K个对象作为初始的聚类中心。然后计算每个对象与各个种子聚类中心之间的距离,把每个对象分配给距离它最近的聚类中心。聚类中心以及分配给它们的对象就代表一个聚类。一旦全部对象都被分配了,每个聚类的聚类中心会根据聚类中现有的对象被重新计算。10.详细写出感知器训练算法步骤给定初始值:置k=0,权向量w(k)为任意值,可选常数0<c≤1输入样本xm∈{x1,x2,…,xn},计算判决函数值g(xm)=wT(k)xm按如下规则修改权向量若xm∈wi,且g(xm)≤0,则w(k+1)=w(k)+cxm若xm∈wj,且g(xm)>0,则w(k+1)=w(k)-cxm令k=k+1,返回第二步,直到w对所有样本稳定不变,结束11.详细介绍初始聚类中心的选择方法任取前c个样本点作为初始聚类中心凭经验选择将全部数据随机分为c类,计算其重心,将重心作为聚类中心密度法选择代表点(具有统计特性)从c-1类划分中产生c类划分问题的初始聚类中心12.详细写出Fisher算法步骤13.什么是两分剪辑近邻法与压缩近邻法将原始样本随机分为两个集合:预测集T和参考集R,来自预测集和参考集的样本分别完成考试和参考任务,相互独立在剪辑的基础上,再去掉一部分这样的样本,有助于进一步缩短计算时间和降低存储要求。这类方法叫作压缩近邻法。==========2、一个典型的模式识别系统主要由哪几个部分组成?原始数据获取和预处理、特征提取与选择、分类或聚类、后处理4部分什么是后验概率?系统在某个具体的模式样本X条件下位于某种类型的概率。样本集推断总体概率分布的方法?参数估计监督参数估计:样本所属类别及类条件总体概率密度函数的形式已知,某些参数未知非监督参数估计:已知总体概率密度函数形式但未知样本类别,要推断某些参数非参数估计:已知样本类别,未知总体概率密度函数形式,要求直接推断概率密度函数本身11、特征抽取与特征选择的区别?原始特征的数量可能很大,或者样本处于一个高维空间中,通过映射(或变换)的方法可以用低维空间来表示样本,这个过程叫特征抽取。特征选择:从一组特征中挑选出一些最有效的特征以达到降低特征空间维数的目的,这个过程叫特征选择。12、什么是最优搜索算法?至今能得到最优解的唯一快速算法是“分支定界”算法。属于自上而下的算法,具有回溯功能。13、统计学习理论的核心问题?经验风险最小化原则下统计学习一致性的条件在这些条件下关于统计学习方法推广性的界的结论在这些界的基础上建立的小样本归纳推理原则实现这些新的原则的实际方法描述贝叶斯 公式 小学单位换算公式大全免费下载公式下载行测公式大全下载excel公式下载逻辑回归公式下载 及其主要作用。贝叶斯公式:两个事物X与w联合出现的概率称为联合概率。利用该公式可以计算后验概率。利用最大似然估计方法对单变量正态分布函数来估计其均值μ和方差σ2。P488、什么是离散K-L变换以及离散有限K-L展开。一种基于目标统计特性的最佳正交变换;9、必考:针对某个识别对象设计自己的模式识别系统,并叙述各步骤主要工作。
本文档为【模式识别习题课】,请使用软件OFFICE或WPS软件打开。作品中的文字与图均可以修改和编辑, 图片更改请在作品中右键图片并更换,文字修改请直接点击文字进行修改,也可以新增和删除文档中的内容。
该文档来自用户分享,如有侵权行为请发邮件ishare@vip.sina.com联系网站客服,我们会及时删除。
[版权声明] 本站所有资料为用户分享产生,若发现您的权利被侵害,请联系客服邮件isharekefu@iask.cn,我们尽快处理。
本作品所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用。
网站提供的党政主题相关内容(国旗、国徽、党徽..)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
下载需要: ¥11.9 已有0 人下载
最新资料
资料动态
专题动态
机构认证用户
教育文档
尚阅科技是一家以计算机网络工程、互联网运营平台、WEB应用开发、网页设计、技术开发、教育文档分享等为核心的科技公司。
格式:doc
大小:100KB
软件:Word
页数:0
分类:其他高等教育
上传时间:2021-06-29
浏览量:65