首页 机器学习复习题及答案

机器学习复习题及答案

举报
开通vip

机器学习复习题及答案一、单选题1、下列哪位是人工智能之父?()A.MarnivLeeMinskyB.HerbertA.SimonC.AllenNewellD.JohnCliffordShaw正确答案:A2、根据王珏的理解,下列不属于对问题空间W的统计描述是()。A.一致性假设B.划分C.泛化能力D.学习能力正确答案:D3、下列描述无监督学习错误的是()。A.无标签B.核心是聚类C.不需要降维D.具有很好的解释性正确答案:C4、下列描述有监督学习错误的是()。A.有标签B.核心是分类C.所有数据都相互独立分布D.分类原因不透明正确答案:...

机器学习复习题及答案
一、单选 快递公司问题件快递公司问题件货款处理关于圆的周长面积重点题型关于解方程组的题及答案关于南海问题 1、下列哪位是人工智能之父?()A.MarnivLeeMinskyB.HerbertA.SimonC.AllenNewellD.JohnCliffordShaw正确 答案 八年级地理上册填图题岩土工程勘察试题省略号的作用及举例应急救援安全知识车间5s试题及答案 :A2、根据王珏的理解,下列不属于对问题空间W的统计描述是()。A.一致性假设B.划分C.泛化能力D.学习能力正确答案:D3、下列描述无监督学习错误的是()。A.无标签B.核心是聚类C.不需要降维D.具有很好的解释性正确答案:C4、下列描述有监督学习错误的是()。A.有标签B.核心是分类C.所有数据都相互独立分布D.分类原因不透明正确答案:C5、下列哪种归纳学习采用符号 关于同志近三年现实表现材料材料类招标技术评分表图表与交易pdf视力表打印pdf用图表说话 pdf 示方式?()A. 经验 班主任工作经验交流宣传工作经验交流材料优秀班主任经验交流小学课改经验典型材料房地产总经理管理经验 归纳学习B.遗传算法C.联接学习D.强化学习正确答案:A6、混淆矩阵的假正是指()。A.模型预测为正的正样本B.模型预测为正的负样本C.模型预测为负的正样本D.模型预测为负的负样本正确答案:B7、混淆矩阵的真负率公式是为()。A.TP/(TP+FN)B.FP/(FP+TN)C.FN/(TP+FN)D.TN/(TN+FP)正确答案:D8、混淆矩阵中的TP=16,FP=12,FN=8,TN=4,准确率是()。A.1/4B.1/2C.4/7D.4/6正确答案:B9、混淆矩阵中的TP=16,FP=12,FN=8,TN=4,精确率是()。A.1/4B.1/2C.4/7D.2/3正确答案:C10、混淆矩阵中的TP=16,FP=12,FN=8,TN=4,召回率是()。A.1/4B.1/2C.4/7D.2/3正确答案:D11、混淆矩阵中的TP=16,FP=12,FN=8,TN=4,F1-score是()。A.4/13B.8/13C.4/7D.2/30.00/2.00正确答案:B12、EM算法的E和M指什么?()A.Expectation-MaximumB.Expect-MaximumC.Extra-MaximumD.Extra-Max正确答案:A13、EM算法的核心思想是?()A.通过不断地求取目标函数的下界的最优值,从而实现最优化的目标。B.列出优化目标函数,通过方法计算出最优值。C.列出优化目标函数,通过数值优化方法计算出最优值。D.列出优化目标函数,通过坐标下降的优化方法计算出最优值。正确答案:A14、LDA模型的隐变量Z是()。A.每个词对应的主题B.每篇文档对应的主题C.每段话对应的主题D.每个词组对应的主题正确答案:A15、LDA模型中的一个主题指()。A.词集合上的一个概率分布B.词组集合上的一个概率分布C.整个文档上的一个概率分布D.整个文档集合上的一个概率分布正确答案:A16、SVM算法的性能取决于()。A.核函数的选择B.核函数的参数C.软间隔参数D.以上所有正确答案:D17、SVM中的代价参数C表示什么?()A.在分类准确性和模型复杂度之间的权衡B.交叉验证的次数C.以上都不对D.用到的核函数正确答案:A18、下列有关支持向量机说法不正确的是()。A.得到的是局部最优解B.具有很好的推广能力C.是凸二次优化问题D.采用结构风险最小化原理正确答案:A19、下列有关核函数不正确的是()。A.可以采用cross-va1idalion方法选择最佳核函数B.满足Mercer条件的函数不一定能作为支持向量机的核函数C.极大地提高了学习机器的非线性处理能力D.函数与非线性映射并不是一一对应的关系正确答案:B20、一对一法分类器,k个类别需要多少个SVM()。A.k(k-1)/2B.k(k-1)C.kD.k!正确答案:A22、有关聚类分析说法错误的是()。A.无须有标记的样本B.可以用于提取一些基本特征C.可以解释观察数据的一些内部结构和规律D.聚类分析一个簇中的数据之间具有高差异性正确答案:D23、两个n维向量ᵯ(ᵆ,ᵆ,⋯,ᵆ)和ᵯ(ᵆ,ᵆ,⋯,ᵆ)之间的欧式距离(euclidean11121ᵅ21222ᵅdistance)为()。A.ᵅ=√(ᵯ−ᵯ)(ᵯ−ᵯ)ᵄ12B.ᵅ=∑ᵅ|ᵆ−ᵆ|12ᵅ=11ᵅ2ᵅC.ᵅ=max(|ᵆ−ᵆ|)121ᵅ2ᵅD.cos(ᵰ)=(ᵯ∙ᵯ)/(|ᵯ||ᵯ|)正确答案:A24、闵可夫斯基距离表示为曼哈顿距离时p为()。A.1B.2C.3D.4正确答案:A25、关于K-means说法不正确的是()。A.算法可能终止于局部最优解B.簇的数目k必须事先给定C.对噪声和离群点数据敏感D.适合发现非凸形状的簇正确答案:D26、k中心点算法每次迭代的计算复杂度是多少?()A.ᵄ(1)B.ᵄ(ᵅ)C.ᵄ(ᵅᵅ)D.ᵄ(ᵅ(ᵅ−ᵅ)2)正确答案:D3027、下面是矩阵ᵄ=()的特征值为()。01A.3B.2C.-1D.0正确答案:A28、下图中有多少个团?()A.4B.5C.6D.7正确答案:D29、下图中有多少个最大团?()A.0B.1C.2D.3正确答案:C30、假设某事件发生的概率为p,则此事件发生的几率为()。A.pB.1-pC.p/(1-p)D.(1-p)/p正确答案:C31、贝叶斯网络起源于贝叶斯统计学,是以()为基础的有向图模型,它为处理不确定知识提供了有效的方法。A.线性代数B.逻辑学C.概率论D.信息论正确答案:C32、下列哪项说法不正确。()A.人工智能是对人类智能的模拟B.人工神经元是对生物神经元的模拟C.生物神经信号由树突传递给轴突D.人工神经元的激活函数可以有多种设计正确答案:C33、下列哪项说法正确。()A.异或问题中能找到一条直线正确划分所有点B.随着自变量数目的增多,所有二值函数中线性可分函数的比例逐渐增大C.如果一个神经网络结构里面有多个神经元,就一定能解决异或问题D.通常一个神经元包括线性和非线性两种运算正确答案:D34、通用近似定理 说明 关于失联党员情况说明岗位说明总经理岗位说明书会计岗位说明书行政主管岗位说明书 ()。A.多层感知机可以做为函数近似器逼近任意函数B.只需一个隐藏层的多层感知机就能作为通用函数近似器,因此没必要设计深层网络C.给定隐藏层神经元,三层感知机可以近似任意从一个有限维空间到另一个有限维空间的Borel可测函数D.以上全不对正确答案:D35、强化学习基本要素有哪些?()A.状态、动作、奖励B.状态、动作、折扣因子C.动作、折扣因子、奖励D.状态、奖励、探索策略正确答案:A36、不需要建模环境,等待真实反馈再进行接下来的动作,这是哪种强化学习算法。()A.Model-free方法B.Model-based方法C.Policy-based方法D.Value-based方法正确答案:A37、Q-learning属于哪种算法。()A.On-policy算法B.Off-policy算法C.Model-based算法D.Value-based算法正确答案:B38、马尔科夫决策过程由哪几个元素来表示()。A.状态、动作、转移概率、策略、折扣因子B.状态、动作、转移概率、折扣因子、回报函数C.状态、动作、输入、输出、回报函数D.状态、动作、值、策略、回报函数正确答案:B39、关于episode说法错误的是()。A.一个episode就是一个从起始状态到结束的经历B.蒙特卡洛方法需要很少的episode就可以得到准确结果C.TD方法每次更新不需要使用完整的episodeD.蒙特卡洛的方法需要等到整个episode结束才能更新正确答案:B40、如果我们的机器(或智能体)每次训练更新的损耗会比较大,我们更倾向于选择哪种算法。()A.SarsaB.Q-learningC.两者都可以D.两者都不行正确答案:A41、关于策略梯度的方法说法正确的是()。A.只适用于离散动作空间B.适用于连续动作空间C.策略梯度的方法与DQN中的目标函数一致D.策略梯度的方法通过Q值挑选动作正确答案:B二、判断题1、关于EM算法的收敛性,EM算法理论上不能够保证收敛。正确答案:×2、关于EM算法的用途,EM算法只适用不完全数据的情形。正确答案:×3、Jessen不等式等号成立的条件是:变量为常数。正确答案:√4、Jessen不等式E(f(x))>=f(E(x)),左边部分大于等于右边部分的条件是函数f是凸函数,如果f是凹函数,左边部分应该是小于等于右边部分。正确答案:√5、EM算法因为是理论可以保证收敛的,所以肯定能够取得最优解。正确答案:×6、EM算法首先猜测每个数据来自哪个高斯分布,然后求取每个高斯的参数,之后再去重新猜测每个数据来自哪个高斯分布,类推进一步迭代,直到收敛,从而得到最后的参数估计值。正确答案:√7、EM算法,具有通用的求解形式,因此对任何问题,其求解过程都是一样,都能很容易求得结果。正确答案:×8、EM算法通常不需要设置步长,而且收敛速度一般很快。正确答案:√9、吉布斯采样是一种通用的采样方法,对于任何概率分布都可以采样出对应的样本。正确答案:×10、LDA模型的核心假设是:假设每个文档首先由主题分布表示,然后主题由词概率分布表示,形成文档-主题-词的三级层次。正确答案:√11、Gibbs采样是一类通用的采样方法,和M-H采样方法没有任何关系。正确答案:×12、关于LDA模型中的K,K的指定,必须考虑数据集合的特点,选择一个较为优化的数值。正确答案:×13、LDA模型是一种生成式模型。正确答案:√14、主题建模的关键是确定数据集合的主题个数。正确答案:×15、主题建模本质上是:一种新的文档表示方法,主要是通过主题的分布来表示一个文档。一种数据压缩方法,将文档压缩在更小的空间中。正确答案:√16、SVM中的泛化误差代表SVM对新数据的预测准确度。正确答案:√17、若参数C(costparameter)被设为无穷,只要最佳分类超平面存在,它就能将所有数据全部正确分类。正确答案:√18、“硬间隔”是指SVM允许分类时出现一定范围的误差。正确答案:×19、支持向量是最靠近决策表面的数据点。正确答案:√20、数据有噪声,有重复值,不会导致SVM算法性能下降。正确答案:×21、分裂层次聚类采用的策略是自底向上。正确答案:×22、DBSCAN对参数不敏感。正确答案:×23、EM聚类属于软分聚类方法。正确答案:√24、k-means算法、EM算法是建立在凸球形的样本空间上的聚类方法。正确答案:√25、逻辑斯蒂回归模型是一种回归算法。正确答案:×26、熵最大时,表示随机变量最不确定,也就是随机变量最随机,对其行为做准确预测最困难。正确答案:√27、从最大熵思想出发得出的最大熵模型,采用最大化求解就是在求P(y|x)的对数似然最大化。正确答案:√28、GIS算法的收敛速度由计算更新值的步长确定。C值越大,步长越大,收敛速度就越快。正确答案:×29、贝叶斯网络具有的条件独立性是结点与其后代结点条件独立。正确答案:×30、最大似然估计方法是实例数据不完备情况下的学习方法。正确答案:×31、隐马尔可夫模型是一种统计模型,经常用来描述一个含有隐含未知参数的马尔可夫过程。正确答案:√32、LSTM和GRU网络因为引入了门控单元,可以缓解梯度消失问题。正确答案:√33、循环神经网络按时间展开后就可以通过反向传播算法训练了。正确答案:√34、卷积神经网络通常比全连接神经网络参数少,因此能力更差。正确答案:×35、训练算法的目的就是要让模型拟合训练数据。正确答案:×36、反向传播算法中需要先计算靠近输入层参数的梯度,再计算靠近输出层参数的梯度。正确答案:×三、多选题1、LDA模型在做参数估计时,最常用的方法是()。A.Gibbs采样方法B.变分推断C.梯度下降D.Beamsearch正确答案:A、B2、以下关于逻辑斯蒂回归模型的描述正确的是()。A.针对分类的可能性进行建模,不仅能预测出类别,还可以得到属于该类别的概率。B.直接对分类的可能性进行建模,无需事先假设数据分布,这样就避免了假设分布不准确所带来的问题。C.模型本质仍然是一个线性模型,实现相对简单。D.逻辑斯蒂回归模型是线性回归模型正确答案:A、B、C、D3、条件随机场需要解决的关键问题有()。A.特征函数的选择B.参数估计C.约束条件D.模型推断正确答案:A、B、D4、基于搜索评分的方法,关键点在于()。A.确定合适的搜索策略B.确定搜索优先级C.确定评分函数D.确定选择策略正确答案:A、C5、基于约束的方法通过统计独立性测试来学习结点间的()。A.独立性B.依赖性C.完备性D.相关性正确答案:A、D6、在数据不完备时,贝叶斯网络的参数学习方法有()。A.高斯逼近B.最大似然估计方法C.蒙特卡洛方法D.拉普拉斯近似正确答案:A、C、D7、隐马尔可夫模型的三个基本问题是()。A.估值问题B.状态更新C.寻找状态序列D.学习模型参数正确答案:A、C、D8、通常有哪几种训练神经网络的优化方法?()A.梯度下降法B.随机梯度下降法C.小批量随机梯度下降法D.集成法正确答案:A、B、C9、为什么循环神经网络可以用来实现自动问答,比如对一句自然语言问句给出自然语言回答?()A.因为自动问答可以看成是一种序列到序列的转换B.因为循环神经网要比卷积神经网更强大C.因为循环神经网络能够处理变长输入D.因为卷积神经网络不能处理字符输入正确答案:A、C10、以下关于蒙特卡洛方法描述正确的是()。A.蒙特卡洛方法计算值函数可以采用First-visit方法B.蒙特卡洛方法方差很大C.蒙特卡洛方法计算值函数可以采用Every-visit方法D.蒙特卡洛方法偏差很大正确答案:A、B、C11、在Q-learning中,以下说法正确的是()。A.在状态ᵆ′时计算的ᵄ(ᵆ′,ᵄ′),对应的动作ᵄ′并没有真正执行,只是用来更新当前Q值B.在状态ᵆ′时计算的ᵄ(ᵆ′,ᵄ′),同时也执行了动作ᵄ′C.更新中,Q的真实值为ᵅ+ᵯ(ᵅᵄᵆᵄ(ᵆ′,ᵄ′))D.更新中,Q的真实值为ᵄ(ᵆ,ᵄ)正确答案:A、C12、Sarsa与Q-learning的区别是?()A.Sarsa是off-policy,而Q-learning是on-policyB.Sarsa是on-policy,而Q-learning是off-policyC.Q-learning在算法更新时,对应的下一个动作并没有执行,而sarsa的下一个动作在这次更新时已经确定了D.Q-learning是一种保守的算法,sarsa是一种贪婪勇敢的算法正确答案:B、C13、Q-learning与Sarsa相同的地方是()。A.都使用了ᵰ−ᵅᵅᵅᵅᵅᵆ等策略进行探索B.都用q-table存储状态动作对C.更新公式相同D.两者都可以找到最优的策略正确答案:A、B14、关于经验池(experiencereplay)叙述正确的是()。A.为了缩小样本量,可以让样本输入到神经网络中B.打破样本之间的连续性C.每次更新时在经验池中按顺序采样样本D.每次更新时随机采样样本正确答案:B、D15、关于DQN说法正确的是()。A.网络最开始使用卷积神经网络或全连接网络,目的是为了提取图像特征信息B.对于atari游戏中,一般将连续4帧图像放在一起作为一个state送到神经网络中C.网络的输出是动作D.网络的输出是Q值正确答案:A、B、D16、关于DoubleDQN说法正确的是()。A.Q值的目标值中的max操作会产生过估计,从而影响找到最佳策略B.DoubleDQN可以减小偏差C.DoubleDQN的目标函数与DQN的完全相同D.DoubleDQN引入了优势函数(advantagefunction)正确答案:A、B17、以下哪种算法属于策略梯度算法。()A.DuelingDQNB.TRPOC.REINFORCED.PPO正确答案:B、C、D18、关于A3C算法说法正确的是()。A.使用了多个线程,每个线程对应了不同的探索方式B.需要使用经验池存储样本C.A3C是off-policy的算法D.A3C是on-policy的算法正确答案:A、D19、以下属于Actor-Critic算法的是()。A.DDPGB.DoubleDQNC.A3CD.NoisyDQN正确答案:A、C20、对于Actor-Critic算法,说法错误的是()。A.Actor-Critic算法结合了policy-based和value-based的方法B.Critic网络是用来输出动作的C.Actor网络是用来输出动作的D.Actor网络是用来评价Critic网络所选动作的好坏的正确答案:B、D
本文档为【机器学习复习题及答案】,请使用软件OFFICE或WPS软件打开。作品中的文字与图均可以修改和编辑, 图片更改请在作品中右键图片并更换,文字修改请直接点击文字进行修改,也可以新增和删除文档中的内容。
该文档来自用户分享,如有侵权行为请发邮件ishare@vip.sina.com联系网站客服,我们会及时删除。
[版权声明] 本站所有资料为用户分享产生,若发现您的权利被侵害,请联系客服邮件isharekefu@iask.cn,我们尽快处理。
本作品所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用。
网站提供的党政主题相关内容(国旗、国徽、党徽..)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
下载需要: 免费 已有0 人下载
最新资料
资料动态
专题动态
个人认证用户
丁文惠
热爱运动,跆拳道。
格式:pdf
大小:1MB
软件:PDF阅读器
页数:19
分类:
上传时间:2023-04-20
浏览量:8