在线学习课堂网课《机器学习初步( 南京)》单元测试考核答案

微信小程序
资源下载
下载价格6

注:不含主观题
第1题
单选题
(1分) 机器学习的经典定义是:利用()改善系统自身的性能。 A 经验B 专家C 规则D 实践
第2题
单选题
(1分) 随着机器学习领域的发展,目前主要研究以下哪个领域的理论和方法? A 汇编语言B 程序设计C 硬件D 智能数据分析
第3题
单选题
(1分) 机器学习利用经验,必须对以下哪个选项进行分析? A 天气B 数据C 生活D 语言
典型的机器学习过程-作业
第1题
单选题
(1分) 课程视频的西瓜数据集中,“好瓜、坏瓜”是一个西瓜样例的什么? A 属性B 类别标记C 没有意义D 数据集名称
第2题
单选题
(1分) 对于要预测的新的数据样本,它的类别标记是? A 已知的B 未知的C 都可以D 负类
第3题
填空题
(1分) 机器学习的模型,____(是/不是)从数据中产生的。
计算学习理论-作业
第1题
单选题
(1分) 计算学习理论中最重要的理论模型是? A 计算模型B 数据模型C 机器学习D PAC
第2题
单选题
(1分) 以下哪个是对概率近似正确(PAC)的正确解释? A 以很低概率得到不好的模型B 以很低概率得到很好的模型C 以很高概率得到很好的模型D 以很高概率得到不好的模型
第3题
填空题
(1分) 机器学习____(有/没有)坚实的理论基础。
基本术语-作业
第1题
单选题
(1分) 课程视频中,训练数据中的“色泽”是什么?  A 属性B 属性值C 类别标记D 样本
第2题
单选题
(1分) 以下哪个选项指的是机器学习中的假设(hypothesis)? A 属性B 标记C 数据D 学到的模型
第3题
填空题
(1分) 多分类问题____(可以/不可以)分解为若干个二分类问题。
归纳偏好-作业
第1题
单选题
(1分) 归纳偏好指机器学习算法在学习过程中,对以下哪个选项的偏好? A 数据B 某种类型假设C 标记D 运行速度
第2题
单选题
(1分) 以下哪个选项是指“奥卡姆剃刀”原则? A 若有多个假设与观察一致,则随机选一个B 若有多个假设与观察一致,则选既不简单又不复杂的那个C 若有多个假设与观察一致,则选最简单的那个D 若有多个假设与观察一致,则选最复杂的那个
第3题
填空题
(1分) 利用“奥卡姆剃刀”原则时,确定哪个假设更“简单”,这个问题____(是/不是)简单的。
NFL定理-作业
第1题
单选题
(1分) 以下哪种说法描述了NFL定理? A 一个算法a若在某些问题上比另一个算法b好,必存在另一些问题没算法b好B 机器学习算法需要数据C 所有机器学习问题问题出现的机会相同D 一个算法a若在某些问题上比另一个算法b好,a一定比b需要更多数据
第2题
单选题
(1分) 以下哪个选项是NFL定理的重要前提? A 所有“问题”难度不同B 所有“问题”出现的机会服从任意分布C 所有“问题”出现的机会不相同D 所有“问题”出现的机会相同
第3题
填空题
(1分) 脱离具体问题,空泛地谈论“什么学习算法更好”____(有/没有)意义。
绪论-章节测试
第1题
单选题
(1分) 下列有关机器学习基本术语的说法错误的是 A 从数据中学得模型的过程称为“学习”或“训练”B 训练过程中使用的数据称为“训练数据”,每一个样本称为一个“训练样本”,训练样本组成的集合称为“训练集”C 学得模型对应了关于数据的某种潜在的规律,称为“假设”D 学习过程就是为了找出数据的某种潜在规律,这个规律自身,一般称为“数据特征”
第2题
单选题
(1分) 以下关于机器学习预测任务的说法错误的是() A 一般地,预测任务是希望通过对训练集进行学习,建立一个从输入空间到输出空间的映射B 对于二分类任务,一般令或C 对于回归任务,一般D 预测任务不需要训练样本的的标记信息
第3题
填空题
(1分) 聚类算法是机器学习中一种典型的____学习算法。(监督/无监督)
第4题
填空题
(1分) 学出来的模型适用于新样本的能力,称为 ____ 能力。该能力越强,说明学得的模型越能很好地适用于整个样本空间。
第5题
填空题
(1分) 学得模型后,使用其进行预测的过程称为____。
第6题
填空题
(1分) 根据训练数据是否拥有标记信息,我们可以将学习任务分为两大类,监督学习和____。
第7题
填空题
(1分) 分类和回归任务,按照数据是否拥有标记信息来说,属于机器学习中的____。
第8题
单选题
(1分) 下列不属于机器学习任务的是() A 人脸识别B 网页编写C 文本分类D 销量预测
第9题
单选题
(1分) 下列说法错误的是() A 模型是通过学习算法得到的B 机器学习通常解决高度不确定性和复杂性的问题C 分类和回归是监督学习的代表D 机器学习一定需要类别标记
第10题
单选题
(1分) 下列说法错误的是() A “色泽”取值为“青绿”,这里的“青绿”是属性值B 输出是离散值的学习任务为分类任务C 模型找出的规律一定是正确的D 一般假设正类和反类是可交换的
第11题
单选题
(1分) 下列说法错误的是() A 学得模型适用于新样本的能力称为“泛化”能力B 机器学习一般有“独立同分布”假设C 机器学习在只要见过的数据上做好就行了,未见过样本上的性能不重要D 一般假设拿到的所有数据都来自一个潜在的分布
第12题
填空题
(1分) 把见过的汽车分成若干组,这是一个____(分类/回归/聚类)任务
第13题
填空题
(1分) 上完机器学习课,小明在50个数据集上用不同算法模型进行训练和测试,发现算法a的效果一直比算法b好,他认为在所有问题上算法a的效果都会比b好。这个结论是____(正确/错误)的。
第14题
填空题
(1分) 奥卡姆剃刀原则中,两个假设哪一个“更简单”,是____(容易/不容易)判断的。
第15题
单选题
(1分) 下列关于归纳偏好的说法错误的是() A 机器学习算法在学习过程中对某种类型假设的偏好,称为“归纳偏好”,或简称为“偏好”B 一般来说,任何一个有效的机器学习算法都有其归纳偏好C “奥卡姆剃刀”原则在某些情况下可以指导我们选择偏好D 在任何情况下,总有一个最优的学习算法
泛化能力-作业
第1题
单选题
(1分) 下面哪一项可以作为模型好的标准? A 错误率低B 精度高C 召回率高D 上述指标都可以,但视具体任务和使用者需求而异
第2题
单选题
(1分) 我们希望模型在未见样本上表现好,这一能力通常被称作模型的什么能力? A 泛化能力B 建模能力C 学习能力D 拟合能力
第3题
填空题
(1分) 在评价模型性能时,我们更希望它____(泛化能力强/训练误差为0)
过拟合和欠拟合-作业
第1题
单选题
(1分) 模型在“未来”样本上的误差被称作 A 泛化误差B 经验误差C 学习误差D 训练误差
第2题
单选题
(1分) 有的情况下,模型学习到了训练数据满足的特有性质,但这些性质不是一般规律,这种现象被称之为 A 欠拟合B 过拟合C 欠配D 以上三个选项均不是
第3题
填空题
(1分) 在训练模型时,只需要保证模型的训练误差最小即可。____(是/否)
三大问题-作业
第1题
单选题
(1分) 模型选择有哪些关键问题? A 评估方法B 性能度量C 比较检验D 以上三个选项都是关键问题
第2题
单选题
(1分) 为了说明模型在统计意义上表现好,我们最需要考虑 A 评估方法B 性能度量C 比较检验D 以上三个选项都不需要考虑
第3题
填空题
(1分) 在没有“未来数据”的情况下,我们____(能/不能)通过训练集对泛化误差进行估计。
评估方法-作业
第1题
单选题
(1分) 下列什么方法可以用来获得从原始数据集中划分出“测试集”? A 留出法B 交叉验证法C 自助法D 以上三个选项都可以
第2题
单选题
(1分) 下面哪一项不是留出法的注意事项? A 需要保持训练集和测试集数据分布的一致性B 只需要进行一次划分C 测试集不能太大,不能太小D 以上选项都是
第3题
填空题
(1分) 训练集与测试集____(应该互斥/可以不互斥)
调参与验证集-作业
第1题
单选题
(1分) 调参以什么集合上的性能作为评价标准? A 训练集B 测试集C 验证集D 以上选项都可以
第2题
单选题
(1分) 当我们使用一个多项式函数去逼近数据集时,下面哪一个说法是正确的? A 多项式的次数是超参数B 多项式的系数是超参数C 多项式的次数必须通过数据去学习D 以上说法都是正确的
第3题
填空题
(1分) 超参数一般由____(人工/学习)确定。
性能度量-作业
第1题
单选题
(1分) “好”模型取决于下列哪些因素? A 算法B 数据C 任务需求D 以上选项都是
第2题
单选题
(1分) 收购西瓜的公司希望把瓜摊的好瓜都尽量收走,请问他的评价标准是? A 错误率B 精度C 查准率D 查全率
第3题
填空题
(1分) 回归任务的性能度量之一均方误差  添加系数后  会影响判断哪个模型是最好的。____(是/否)
比较检验-作业
第1题
单选题
(1分) 以下什么检验是基于列联表的? A 交叉验证t检验B McNemar检验C 以上检验都是基于列联表的D 以上检验都不是基于列联表的
第2题
单选题
(1分) 下面关于交叉验证t检验错误的是? A 适用于模型采用k折交叉验证的评估方法B 基于成对t检验C 无法判断统计显著性D 需要用到模型评估时k折交叉验证的k个结果
第3题
填空题
(1分) 两种算法在某种度量下取得评估结果后,可以直接比较以评价优劣。____(是/否)
模型评估与选择-章节测试
第1题
单选题
(1分) 在训练集上的误差被称作 A 泛化误差B 经验误差C 测试误差D 以上三个选项都不对
第2题
单选题
(1分) 当学习任务对数据分布的轻微变化比较鲁棒且数据量较少时,适合使用什么样的数据集划分方式? A 留出法B 交叉验证法C 自助法D 以上三个选项都可以
第3题
单选题
(1分) 我们通常将数据集划分为训练集,验证集和测试集进行模型的训练,参数的验证需要在__上进行,参数确定后__重新训练模型。 A 训练集 需要B 训练集 不需要C 验证集 需要D 验证集 不需要
第4题
单选题
(1分) 当西瓜收购公司去瓜摊收购西瓜时既希望把好瓜都收走又保证收到的瓜中坏瓜尽可能的少,请问他应该考虑什么评价指标? A 精度B 查全率C 查准率D F1度量
第5题
单选题
(1分) 两种算法在某种度量下取得评估结果后不能直接比较以评判优劣的原因中,正确的是 A 测试性能不等于泛化性能B 测试性能随着测试集的变化而变化C 很多机器学习算法本身有一定的随机性D 以上均正确
第6题
填空题
(1分) 训练模型时,选择经验误差最小的模型会存在什么风险。____(过拟合/欠拟合)
第7题
填空题
(1分) 对于从数据(0,1),(1,0),(1,2),(2,1)通过最小二乘拟合的不带偏置项的线性模型y=x,其训练误差(均方误差)为____ (保留三位小数)
第8题
填空题
(1分) 使用留出法对数据集进行划分时,为了保持数据分布的一致性,可以考虑什么采样。____(分层采样/随机采样/有放回采样)
第9题
填空题
(1分) 当我们使用留出法对数据集进行划分后,在训练集上通过两个不同的算法训练出2个模型,并通过测试集上的性能评估得到表现最好的模型,这一模型可以直接推荐给用户。 ____(是/否)
第10题
填空题
(1分) 考虑一个三分类数据集,其由30个西瓜,30个苹果,30个香蕉构成。先有一个学习策略为预测新样本为训练集中样本数目最多类别的分类器(存在多个类别样本数量一样多时则随机选择一个类别预测),请问通过什么评估方式会导致其平均准确率为0。____(留出法/交叉验证,每一折样本数大于1/留一法)
第11题
填空题
(1分) 当我们使用留一法进行评估时会出现什么问题。____(训练模型与使用整个数据集训练的模型差异大/经验误差与泛化误差偏差大)
第12题
填空题
(1分) 考虑如下分类结果混淆矩阵,其F1度量为____(保留3位小数)
第13题
填空题
(1分) McNemar检验基于____(成对t检验/卡方检验)
第14题
单选题
(1分) 假设我们已经建立好了一个二分类模型, 输出是0或1, 初始阈值设置为0.5, 超过0.5概率估计就判别为1, 否则就判别为0 ; 如果我们现在用另一个大于0.5的阈值, 一般来说,下列说法正确的是 A 查准率会上升或不变,查全率会下降或不变B 查准率会下降或不变,查全率会下降或不变C 查准率会上升或不变,查全率会上升或不变D 查准率会下降或不变,查全率会上升或不变
第15题
单选题
(1分) 对于留出法,下列说法正确的是 A 测试集小的时候,评估结果的方差较大B 训练集小的时候,评估结果的偏差较大C 留出法需要对数据集进行多次切分并将结果取平均值D 以上说法均正确
线性回归-作业
第1题
单选题
(1分) 以下哪个不是线性模型的优势? A 简单B 复杂C 基本D 可理解性好
第2题
单选题
(1分) 示例的属性可以属于下列哪个类别? A 无序的离散属性B 连续属性C 有序的离散属性D 以上都对
第3题
填空题
(1分) 一卖伞商家想利用天气来预测销售额,已知他只考虑温度、湿度、降雨量三种天气特征。若商家使用线性回归模型预测,则模型的输入是____ (填写阿拉伯数字) 维度的。
最小二乘解-作业
第1题
单选题
(1分) 最小二乘参数估计得到的线性回归模型满足什么性质? A 均方误差为0B 均方误差最大C 均方误差最小D 均方误差为1
第2题
单选题
(1分) 最小二乘法的求解步骤是什么?  (1) 均方误差对w与b求偏导;(2) 令偏导为0;(3) 求解线性方程组。 A (1)(2)(3)B (1)(3)(2)C (2)(1)(3)D (3)(1)(2)
第3题
填空题
(1分) 基于均方误差最小化来进行模型求解的方法称为____(5个字)。
多元线性回归-作业
第1题
单选题
(1分) 为了书写的简化,多元线性回归会使用下列哪种记号? A 将  与  合并为一个向量,在  的最后增加一列1B 将  与1合并为一个向量,在  的最后增加一列 C 将  与1合并为一个向量,在  的最后增加一列D 将  与  合并为一个向量,在  的最后增加一列
第2题
单选题
(1分) 当下列哪个条件满足时,多元线性回归的最小二乘解唯一? A  不满秩B  满秩C  满秩D 不满秩
第3题
填空题
(1分) 当‍  不满秩时,多元线性回归需要引入____(regularization)。
广义线性模型-作业
第1题
单选题
(1分)  被称为什么模型? A 线性指数回归B 线性对数回归C 指数线性回归D 对数线性回归
第2题
单选题
(1分) 对数线性回归是令广义线性模型中的联系函数为什么函数的特例? A 指数函数B 对数函数C 二次函数D 绝对值函数
第3题
填空题
(1分) 广义线性模型的一般形式为 ,其中  被称为____(link function)。
对率回归-作业
第1题
单选题
(1分) 单位阶跃函数的缺点是什么? A 不连续且不可微B 单调增C 非负D 最大值为1
第2题
单选题
(1分) 对数几率函数作为单位阶跃函数的替代函数的优点是什么? A 具有中心对称性B 严格大于0C 单调且任意阶可导D 不需要写成分段形式
第3题
填空题
(1分)  反映了  作为正例的相对可能性,这个量在统计学中被称为____。
对率回归求解-作业
第1题
单选题
(1分) 对数几率回归为什么不能通过令偏导为0求解? A 均方损失函数太复杂B 均方损失非凸C 均方损失没有偏导为0的点D 均方损失没有极值点
第2题
单选题
(1分) 下列关于梯度下降法描述错误的是? A 可以用于求解对数几率回归B 是一种迭代求解的方法C 可以比较好的并行化D 可以高效地求解所有凸优化问题
第3题
填空题
(1分) 极大似然法最大化____函数。
类别不平衡-作业
第1题
单选题
(1分) 类别不平衡问题中何时需要做特殊处理? A 大类比小类重要B 小类和大类一样重要C 小类比大类重要D 任何情况
第2题
单选题
(1分) 以下哪种方法不是常见的类别不平衡学习方法? A 最小二乘法B 过采样C 欠采样D 阈值移动
第3题
填空题
(1分) 处理类别不平衡问题时,通过丢掉一部分大类样本使得训练集平衡的方法被称为____ (3个字)。
线性模型-章节测试
第1题
单选题
(1分) 下列关于对数几率回归的描述中错误的是? A 无需事先假设数据分布B 使用对数函数作为联系函数C 可得到类别的近似概率预测D 可直接应用现有数值优化算法求取最优解
第2题
单选题
(1分) 孙悟空想请你帮他预测下一次妖精会在多久后出现,你会使用下列哪种方法? A 使用历史上妖精出现的时间以及八戒每日食量数据,并使用对率回归模型B 使用历史上妖精出现的时间以及师父念紧箍咒的时间数据,并使用指数线性回归模型C 使用历史上妖精出现的时间以及师徒四人的前进速度数据,并使用多元线性回归模型D 使用历史上妖精出现的时间以及沙和尚每日体重数据,并使用对数线性回归模型
第3题
单选题
(1分) 处理类别不平衡问题时,复制小类样本不是一种好的过采样方法,下列哪个不是其原因? A 复制样本效率低下B 容易过拟合C 受噪声影响大D 有过拟合噪声的风险
第4题
单选题
(1分) Jerry想通过西瓜的重量、西瓜的颜色、西瓜根蒂的长短来判断一个西瓜是否是好瓜,Jerry记录了一些购买西瓜的记录如下:(5500g,乌黑,长,否), (6000g,青绿,很长,是), (5800g,翠绿,短,是)。如果Jerry想收集更多西瓜数据并利用线性模型判断西瓜好坏,下列哪个选项是上述三个记录的合理表示? A (5500,1,2), (6000,2,4), (5800,3,1)B (5.5,1,0,0,3), (6,0,0,1,5), (5.8,0,1,0,1)C (5500,1,0,0,5), (6000,0,1,0,3), (5800,0,0,1,1)D (5.5,1,0,0,3), (6,0,1,0,2), (5.8,0,0,1,1)
第5题
单选题
(1分) 小明想利用心率数据、运动与用餐时间间隔这两项数据来预测是否会发生低血糖,他利用平时锻炼数据收集了100个未发生低血糖的数据与3个发生低血糖的数据,3个发生低血糖的数据为:(180,比较久), (170,久), (165,非常久)。小明想请你帮他过采样一些低血糖数据,你认为下列哪个数据是合理的过采样数据? A (175,比较久)B (200,久)C (150,非常久)D (175,不久)
第6题
单选题
(1分) 下列哪个模型不是广义线性模型? A B C D
第7题
单选题
(1分) 下列哪个选项不是多元线性回归使用正则化的原因? A 计算机数值精度有限B 样例维度大于样例数C 样例的采样过程存在偏差D 存在大量线性相关的样例
第8题
单选题
(1分) 在求解对率回归时,下列哪个选项不是极大似然法的优势? A 优化目标是凸函数B 具有闭式解C 可以使用梯度下降法求解D 优化目标连续可微
第9题
填空题
(1分) 给定数据集,最小二乘法学得的线性模型的斜率为____ (保留3位小数)。
第10题
填空题
(1分) 给定数据集,最小化数据集到线性模型的欧式距离的平方和学得的线性模型满足。对于数据集,这一方法学得的线性模型的斜率为____ (保留3位小数)。
第11题
填空题
(1分) 比较上述两题求得的斜率值,最小二乘法求得的斜率____(大于/等于/小于) 最小化数据集到线性模型欧式距离的平方和求得的斜率。这一结论对一般问题也成立,可尝试证明之。
第12题
填空题
(1分) OvR是一种常用的多分类方法,该方法每次将一个类的样例作为正例、所有其他类的样例作为反例。对于类别均衡的10分类问题,若使用OvR以及阈值移动法来训练,则阈值应设为____ (保留3位小数)。
第13题
填空题
(1分) 对率回归可以得到样例是正类的概率的____(精确值/近似估计)。
第14题
填空题
(1分) 对率回归____(需要/不需要) 事先假设数据分布。
第15题
填空题
(1分) 多元线性回归不满秩的情况下____(是/否)可以通过加入归纳偏好来选取较好的解。
决策树基本流程-作业
第1题
单选题
(1分) 下列选项哪个是决策树的预测过程? A 将测试示例从一个中间节点开始,沿着划分属性所构成的“判定测试序列”下行,直到叶节点B 将测试示例从一个中间节点开始,沿着划分属性所构成的“判定测试序列”上行,直到根节点C 将测试示例从叶节点开始,沿着划分属性所构成的“判定测试序列”上行,直到根节点D 将测试示例从根节点开始,沿着划分属性所构成的“判定测试序列”下行,直到叶节点
第2题
单选题
(1分) 决策树学习的策略是什么? A 分而治之B 集成C 聚类D 排序
第3题
填空题
(1分) 决策树训练时,若当前结点包含的样本全属于同一类别,则____(需要/无需)划分
信息增益划分-作业
第1题
单选题
(1分) 信息熵是度量样本集合 [填空1] 最常用的一种指标 A 纯度B 对称差C 大小D 重要性
第2题
单选题
(1分) 以下哪个选项是信息增益的定义? A 划分前的信息熵-划分后的信息熵B 划分后的信息熵-划分前的信息熵C 划分前的信息熵/划分后的信息熵D 划分后的信息熵+划分前的信息熵
第3题
填空题
(1分) 在二分类任务中,若当前样本集合的正类和负类的数量刚好各一半,此时信息熵为____(保留一位小数)
其他属性划分准则-作业
第1题
单选题
(1分) 下列说法错误的是() A CART算法在候选属性集合中选取使划分后基尼指数最大的属性B 划分选择的各种准择对泛化性能的影响有限C 划分选择的各种准择对决策树尺寸有较大影响D 相比划分准则,剪枝方法和程度对决策树泛化性能的影响更为显著
第2题
单选题
(1分) 增益率的表达式是Gain_ratio(D,a)=() A Gain(D,a)+IV(a)B Gain(D,a)-IV(a)C Gain(D,a)*IV(a)D Gain(D,a)/IV(a)
第3题
填空题
(1分) 对视频中出现的西瓜数据集2.0(《机器学习》教材第76页),划分前的信息熵为0.998,若使用编号属性进行划分,则信息增益为____(保留3位小数)
决策树的剪枝-作业
第1题
单选题
(1分) 剪枝是决策树学习算法对付什么现象的主要手段? A 标记噪声B 数据少C 过拟合D 欠拟合
第2题
单选题
(1分) 提前终止某些分支的生长,这个策略的名称是什么? A 预剪枝B 后剪枝C 不剪枝D 随机剪枝
第3题
填空题
(1分) 决策树剪枝的基本策略有“____”和“后剪枝”
缺失值的处理-作业
第1题
单选题
(1分) 决策树算法一般是如何对缺失属性进行处理的? A 仅使用无缺失的样例B 对缺失值进行随机填充C 用其他属性值预测缺失值D 利用“样本赋权,权重划分”的思想解决
第2题
单选题
(1分) 决策树处理缺失值的基本思路是“样本赋权,权重划分”,其中“权重划分”指的是以下哪个选项? A 给定划分属性,若样本在该属性上的值缺失,会按进入权重最大的一个分支B 给定划分属性,若样本在该属性上的值缺失,会按权重随机进入一个分支C 给定划分属性,若样本在该属性上的值缺失,会按权重同时进入所有分支D 给定划分属性,若样本在该属性上的值缺失,会按进入权重最小的一个分支
第3题
填空题
(1分) 决策树处理有缺失值的样本时,仅通过____(有/无)缺失值的样例来判断划分属性的优劣
决策树-章节测试
第1题
单选题
(1分) 决策树划分时,若当前结点包含的样本集合为空,则应该怎么做? A 将结点标记为叶结点,其类别标记为父结点中样本最多的类B 将结点标记为叶结点,其类别标记为父结点中样本最少的类C 将结点标记为叶结点,其类别标记为父结点中任意一个类D 从其他结点获得样本,继续进行划分
第2题
单选题
(1分) 决策树划分时,当遇到以下哪种情形时,将结点标记为叶节点,其类别标记为当前样本集中样本数最多的类 A 当前属性集为空,或所有样本在所有属性上取值相同B 当前属性集不为空,或所有样本在所有属性上取值相同C 当前结点包含的样本集合为空,或当前属性集为空D 当前结点包含的样本集合为空,或所有样本在所有属性上取值相同
第3题
填空题
(1分) ID3决策树划分时,选择信息增益最____(大/小)的属性作为划分属性
第4题
填空题
(1分) 若数据集的属性全为离散值,决策树学习时,____(可以/不可以)把用过的属性再作为划分属性。
第5题
单选题
(1分) 下列说法错误的是() A 信息增益准则对可取值较少的属性有所偏好B C4.5算法并不是直接选择增益率最大的候选划分属性C 基尼指数反映了从数据集中随机抽取两个样本,其类别标记不一致的概率D 基尼指数越小,数据集的纯度越高
第6题
填空题
(1分) 对视频中出现的西瓜数据集2.0(《机器学习》教材第76页),属性“触感”和“色泽”,____(触感/色泽)的增益率更大
第7题
填空题
(1分) 对视频中出现的西瓜数据集2.0(《机器学习》教材第76页),属性“色泽”的基尼指数为____(保留2位有效数字)
第8题
单选题
(1分) 随着决策树学习时的深度增加,会发生什么现象? A 位于叶结点的样本越来越少B 不会把数据中不该学到的特性学出来C 决策树不会过拟合D 叶结点一定学到一般规律
第9题
填空题
(1分) 只学习一颗决策树作为模型时,一般____(要/不要)选择剪枝
第10题
填空题
(1分) (本题需阅读教材79-83页中剪枝的例子)考虑如图的训练集和验证集,其中“性别”、“喜欢ML作业”是属性,“ML成绩高”是标记。假设已生成如图的决策树,用精度(accuracy)衡量决策树的优劣,预剪枝的结果____(是/不是)原本的决策树。
第11题
填空题
(1分) (本题需阅读教材79-83页中剪枝的例子)考虑如图的训练集和验证集,其中“性别”、“喜欢ML作业”是属性,“ML成绩高”是标记。假设已生成如图的决策树,用精度(accuracy)衡量决策树的优劣,后剪枝的结果____(是/不是)原本的决策树。
第12题
单选题
(1分) 下列说法正确的是() A 决策树处理缺失值时,仅通过无缺失值的样例来判断划分属性的优劣B 若数据中存在缺失值,决策树会仅使用无缺失的样例C 若数据维度很高,不容易出现大量缺失值D 对决策树,给定划分属性,若样本在该属性上的值缺失,会随机进入一个分支
第13题
填空题
(1分) 决策树处理有缺失值样本时,一个样本在各子节点中的权重和为____(保留一位小数)
第14题
单选题
(1分) 关于剪枝,下列说法错误的是() A 对于同一棵树,进行预剪枝和后剪枝得到的决策树是一样的B 决策树的剪枝算法可以分为两类,分别称为预剪枝和后剪枝C 预剪枝在树的训练过程中通过停止分裂对树的规模进行限制D 后剪枝先构造出一棵完整的树,然后通过某种规则消除掉部分节点,用叶子节点替代
第15题
单选题
(1分) 通常来说,子节点的基尼不纯度与其父节点是什么样的关系? A 通常更低B 通常更高C 永远更高D 永远更低
支持向量机基本型-作业
第1题
单选题
(1分) 对于线性可分的二分类任务样本集,将训练样本分开的超平面有很多,支持向量机试图寻找满足什么条件的超平面? A 在正负类样本“正中间”的B 靠近正类样本的C 靠近负类样本的D 以上说法都不对
第2题
单选题
(1分) 下面关于支持向量机的说法错误的是? A 支持向量机基本型是一个凸二次规划问题B 将训练样本分开的超平面仅由支持向量决定C 支持向量机的核心思想是最大化间隔D 以上选项存在说法错误的
第3题
填空题
(1分) 两个异类支持向量到超平面的距离之和称之为____(两个字)
对偶问题与解的特性-作业
第1题
单选题
(1分) 下面哪一项不是支持向量机基本型得到对偶问题的求解步骤 A 引入拉格朗日乘子得到拉格朗日函数B 对拉格朗日函数求偏导并令其为0C 回带变量关系D 梯度下降
第2题
单选题
(1分) 下面关于支持向量机对偶问题的说法错误的是 A 对偶问题需要满足KKT条件B 通过对偶问题推导出的模型表达式能够体现解的稀疏性C 在推导对偶问题时,引入的拉格朗日乘子没有约束条件D 对偶问题的最优值是原始问题最优值的下界
第3题
填空题
(1分) 通过____可以得到支持向量机的对偶问题。(7个字,优化算法)
求解方法-作业
第1题
单选题
(1分) 下面关于SMO算法说法正确的是 A 是一个迭代更新的算法B 先选取KKT条件违背程度最大的变量C 当变量固定后,原始问题具有闭式解D 以上说法都是正确的
第2题
单选题
(1分) 在求解支持向量机截距项的时候错误的说法是 A 通过任意支持向量都能够求解出截距项B 为了提高鲁棒性,通常使用所有支持向量求解的平均值C 通过任意样本都能够求解出截距项D 截距项的求解能够体现支持向量机学习到的超平面仅与少量支持向量有关
第3题
填空题
(1分) 在使用SMO方法优化支持向量机的对偶问题时,每次需要选择几个变量并固定其他变量不变。 ____(只需填写数字)
特征空间映射-作业
第1题
单选题
(1分) 如果不存在一个能正确划分两类样本的超平面,应该怎么办? A 将样本从原始空间映射到一个更高维的特征空间,使样本在这个特征空间内线性可分B 将样本从原始空间映射到一个更高维的特征空间,使样本在这个特征空间内线性不可分C 将样本从原始空间映射到一个更低维的特征空间,使样本在这个特征空间内线性可分D 将样本从原始空间映射到一个更低维的特征空间,使样本在这个特征空间内线性不可分
第2题
单选题
(1分) 将样本映射到高维空间后,支持向量机问题的表达式为 A B C D
第3题
填空题
(1分) 如果原始空间是有限维(属性数有限),那么____(一定/不一定)存在一个高维特征空间使样本线性可分。
核函数-作业
第1题
单选题
(1分) 关于核函数的说法,正确的是 A 能绕过显式考虑特征映射B 能够缓解计算高维内积的困难C 能够直接在原始的特征空间计算D 以上说法都是正确的
第2题
单选题
(1分) 若一个对称函数对于任意数据所对应的核矩阵_,则它就能作为核函数来使用 A 正定B 半正定C 负定D 半负定
第3题
填空题
(1分) 任何一个核函数,都隐式地定义了一个____(九个字)
如何使用SVM-作业
第1题
单选题
(1分) 对于ϵ-不敏感损失函数,说法正确的是 A 当自变量的绝对值小于ϵ时,没有惩罚 B 当自变量的绝对值小于ϵ时,惩罚是线性的C 当自变量的绝对值大于ϵ时,没有惩罚D 当自变量的绝对值大于ϵ时,惩罚是二次的
第2题
单选题
(1分) 下面关于支持向量回归,说法错误的是 A 间隔带两侧的松弛程度可有所不同B 支持向量回归一般要求损失为0当且仅当模型的输出和实际值一样C 支持向量回归也存在对偶问题D 支持向量回归模型的解仍然具有稀疏性
第3题
填空题
(1分) 对于2-不敏感损失,当自变量取值为10时,损失为____(保留整数)
支持向量机-章节测试
第1题
单选题
(1分) 下列关于支持向量机的用法正确的是? A 当数据是线性可分时,可以考虑支持向量机的基本型B 当数据是线性不可分时,可以考虑引入核函数的支持向量机C 若使用引入核函数的支持向量机,可以通过模型选择等技术挑选较为合适的核函数D 以上说法都是正确的
第2题
单选题
(1分) 下列哪一项是支持向量机基本型对偶问题的KKT条件? A B C D 以上条件均不对
第3题
单选题
(1分) 下面关于支持向量机的优化错误的是? A 可以通过常规的优化计算包求解B 可以通过SMO进行高效的求解C 在使用SMO时需要先推导出支持向量机的对偶问题D SMO需要迭代的进行求解,且每一步迭代的子问题不存在闭式解
第4题
单选题
(1分) 考虑两个正例样本(0,0),(1,1)和两个负例样本(1,0),(0,1),这四个样本是线性不可分的,通过下列哪一个映射函数可以让这四个样本线性可分? A 【注:为示性函数,当自变量为真时取值为1,否则取值为0】B C D 以上映射函数都满足条件
第5题
单选题
(1分) 下面关于支持向量回归说法正确的是 A 当样本距离超平面的距离小于一定程度时,没有损失B 解具有稀疏性C 当样本距离超平面的距离大于一定程度时,有损失且损失随着距离线性增加D 以上说法都是正确的
第6题
填空题
(1分) 支持向量机的“间隔”定义为两个异类支持向量到超平面的距离之和,支持向量机的核心思想是____(最大化/最小化)间隔。
第7题
填空题
(1分) 支持向量机对偶问题得到的目标函数最优值是原始问题目标函数最优值的____(上界/下界)
第8题
填空题
(1分) 考虑正类样本(-1,0),(0,1),(-1,1) 和负类样本(1,0),(0,-1),(1,-1),若使用支持向量机算法,则其支持向量有____个。
第9题
填空题
(1分) 支持向量机的解具有什么性质?____(三个字)
第10题
填空题
(1分) 在求解支持向量机对偶问题时,引入的拉格朗日乘子____(有/没有)约束条件。
第11题
填空题
(1分) 对于两个样本点(0,0),(1,1),若我们将其投影到与高斯核函数关联的RKHS中时,则两个样本投影后的点距离为____(保留三位小数)
第12题
填空题
(1分) 试判断定义在上的函数是否为核函数。____(是/否)
第13题
填空题
(1分) 试判断定义在上的函数是否为核函数。____(是/否)
第14题
单选题
(1分) 对于支持向量机定义的超平面,下列说法错误的是 A 通过支持向量机求解出的划分超平面是对训练样本局部扰动的“容忍”性最好的划分超平面B 对于所有可能的划分超平面,通过支持向量机求解出的划分超平面所产生的分类结果是较鲁棒的,是对未见示例的泛化能力较强的C 支持向量机的“间隔”为,表示向量的模D 可以通过求解对偶问题的方法来求解支持向量机的最大间隔划分超平面
第15题
单选题
(1分) 关于支持向量机基本型中间隔、支持向量和超平面wx+b=0的说法,下列说法正确的是 A 对于线性可分的训练样本,存在唯一的超平面将训练样本全部分类正确B 对于线性可分的训练样本,支持向量机算法学习得到的能够将训练样本正确分类且具有“最大间隔”的超平面是存在并且唯一的C 支持向量机训练完成后,最后的解与所有训练样本都有关D 间隔只与w有关,与b无关
神经网络模型-作业
第1题
单选题
(1分) 神经网络模型的两个最重要的要素是什么? A 网络结构、激活函数B 网络结构、神经元模型C 激活函数、学习算法D 学习算法、神经元模型
第2题
单选题
(1分) 以下哪个名称不是activation function的翻译? A 响应函数B 挤压函数C 激活函数D 损失函数
第3题
单选题
(1分) 目前神经网络最常用的网络结构是下列哪个选项? A 单层后向网络B 多层后向网络C 单层前馈网络D 多层前馈网络
万有逼近能力-作业
第1题
单选题
(1分) 下列哪个选项是神经网络万有逼近的正确表述? A 仅需一个包含足够多神经元的隐层,多层前馈神经网络就能以任意精度逼近任意复杂度的可测函数B 仅需一个包含足够多神经元的隐层,多层前馈神经网络就能完美表示任意复杂度的连续函数C 仅需一个包含足够多神经元的隐层,多层前馈神经网络就能以任意精度逼近任意复杂度的连续函数D 仅需一个包含100000000个神经元的隐层,多层前馈神经网络就能以任意精度逼近任意复杂度的连续函数
第2题
单选题
(1分) 下列哪个模型不具备万有逼近性? A 线性模型B 泰勒展开C 傅里叶变换D 决策树
第3题
填空题
(1分) 多层前馈网络具有的强大表示能力称为神经网络的____性 (4个字)。
BP算法推导-作业
第1题
单选题
(1分) 下列关于BP算法的描述哪个是错误的? A BP算法适用于平方损失等许多常用损失函数B BP算法是迄今最成功、最常用的神经网络算法C BP算法的正式完整描述最早出现在1974年Werbos的博士学位论文中D BP算法只能用于回归任务
第2题
单选题
(1分) BP算法的每一轮采用的是什么学习规则? A 广义感知机学习规则B 广义最小二乘学习规则C 广义决策树学习规则D 广义支持向量机学习规则
第3题
填空题
(1分) BP算法的全称为____(7个字)。
神经网络-章节测试
第1题
单选题
(1分) 下列关于BP算法使用小步长优化神经网络的说法中正确的是哪个? A 一定能学到最优解B 可以较好的避免振荡现象C 训练速度快D 学得的解比使用大步长具有更小的泛化误差
第2题
单选题
(1分) 下列关于多层前馈神经网络的描述中错误的是哪个? A 可以使用BP算法优化B 至少包含一个隐层C 神经元之间不存在同层连接D 输入层可以直接连接到输出层
第3题
单选题
(1分) 多层前馈神经网络可以视为线性函数与激活函数的复合,而单隐层前馈神经网络中这种复合的次数有限,因而单隐层前馈神经网络的万有逼近性对激活函数有一定要求。你认为使用下列哪个激活函数的单隐层前馈神经网络能具有万有逼近性质? A 双曲正切函数B 常值函数C 线性函数D 三次函数
第4题
单选题
(1分) 下列哪个选项的步长调整方法是给出的四种方案中最好的? A 先使用较大的步长,后使用较小的步长B 先使用较小的步长,后使用较大的步长C 一直使用较大的步长D 一直使用较小的步长
第5题
单选题
(1分) 下列关于万有逼近描述正确的是哪个选项? A 万有逼近是神经网络独有的性质B 神经网络的万有逼近性表明可以很容易的找到一个很好的解C 具有万有逼近性是将神经网络作为机器学习模型的前提D 神经网络的万有逼近性可以指导我们设置隐层神经元数
第6题
填空题
(1分) Sigmoid函数在 x=0.5 处的导数值为____(保留3位小数)。
第7题
填空题
(1分) 具有10个隐层结点的单隐层网络在处理输入维度为6维的三分类任务时 (有3个输出层结点),网络中共有____ (填写一个整数) 个参数。
第8题
填空题
(1分) 实际应用中常使用试错法来设置隐层神经元数,当问题较复杂时,通常使用较____(多/少) 隐层神经元。
第9题
填空题
(1分) 考虑一个有1个输入结点、1个隐层结点、1个输出结点构成的神经网络,该网络输入到隐层的权重与隐层到输出的权重共享,即该神经网络的前馈表达式为,其中为Sigmoid激活函数。考虑由两个样本组成的数据集,神经网络初始化参数为,使用平方损失作为损失函数 (总损失为所有样本的平方和损失,不除以2)。则该神经网络在初始化下的损失为____ (保留3位小数)。
第10题
填空题
(1分) 上述损失关于ω的偏导在初始点处的取值为____(保留3位小数)。
第11题
填空题
(1分) 上述损失关于 b 的偏导在初始点处的取值为____ (保留3位有效数字)。
第12题
填空题
(1分) 当步长取为0.5时,使用BP算法更新神经网络模型后,模型的损失为____ (保留3位小数)。
第13题
填空题
(1分) 当步长取为20时,使用BP算法更新神经网络模型后,模型的损失为____ (保留3位小数)。对比上述两种步长值,体会步长选取与振荡现象的关系。
第14题
单选题
(1分) 用学习率α=0.3 进行15次梯度下降迭代,每次迭代后计算损失。如果发现损失值下降缓慢,并且在15次迭代后仍在下降。基于此,以下哪个结论最可信? A α=0.3是学习率的有效选择B 当前学习率设置偏小C 当前学习率设置偏大D 无法从当前现象对学习率进行判断
第15题
单选题
(1分) 下图是某一激活函数的图像,下列哪个选项可能是该激活函数的表达式? A B C D
贝叶斯决策论-作业
第1题
单选题
(1分) 下列说法正确的是() A 贝叶斯决策论是概率框架下实施决策的基本理论B 表示把样本 x 分到第 i 类面临的风险C 如果概率都能拿到真实值,那么根据贝叶斯判定准则做出的决策是理论上最好的决策D 以上都正确
第2题
单选题
(1分) 以下哪个选项是对贝叶斯最优分类器的描述? A 对每个样本 x 选择能使后验概率最大的类别标记B 对每个样本 x 选择能使后验概率最小的类别标记C 对每个样本 x 选择能使条件风险最大的类别标记D 对每个样本 x 选择能使条件风险最小的类别标记
第3题
填空题
(1分) 反映了分类器所能达到的最____(好/坏)性能
生成式和判别式模型-作业
第1题
单选题
(1分) 决策树属于什么模型? A 判别式B 生成式C 判别式和生成式D 以上都不对
第2题
单选题
(1分) 先对联合概率分布建模 P(x, c) ,再由此获得 P(c|x) ,属于什么模型? A 判别式B 生成式C 回归D 以上都不是
第3题
填空题
(1分) 机器学习估计后验概率分为两种基本策略,____式模型和生成式模型
贝叶斯分类器与贝叶斯学习-作业
第1题
单选题
(1分) 贝叶斯主义认为,分布的参数是什么? A 点B 分布C 点同时也是分布D 以上都不对
第2题
单选题
(1分) 统计学习属于什么主义? A 频率主义B 贝叶斯主义C 两者都是D 两者都不是
第3题
填空题
(1分) 贝叶斯学习____(等于/不等于)贝叶斯分类器
极大似然估计-作业
第1题
单选题
(1分) 极大似然中,若直接连乘,易造成什么现象? A 下溢B 上溢C 内存不足D 计算开销大
第2题
单选题
(1分) 对数似然中,一般对概率取对数,然后进行以下哪个的操作? A 求差B 求和C 求积D 以上都不是
第3题
填空题
(1分) 极大似然估计____(需要/不需要)假设某种概率分布形式
朴素贝叶斯分类器-作业
第1题
单选题
(1分) 贝叶斯公式中,估计后验概率 P(c|x) 的主要困难在于估计以下哪个选项? A p(c)B p(x|c)C 以上两者都是D 以上两者都不是
第2题
单选题
(1分) 朴素贝叶斯分类器中,对给定类别,模型对所有属性间的独立性有何种假设? A 部分不独立B 部分独立C 相互不独立D 相互独立
第3题
填空题
(1分) 对____(离散/连续)属性,计算条件概率可考虑概率密度函数
贝叶斯分类器-章节测试
第1题
填空题
(1分) 贝叶斯最优分类器____(达到了/没达到)了贝叶斯风险。
第2题
单选题
(1分) 在贝叶斯决策论中,下列说法错误的是() A 反映了机器学习所能产生的模型精度理论上限B 贝叶斯最优分类器在每个样本上选择那个能使条件风险 R(c|x) 最小的类别标记C 在实际中,贝叶斯决策论中的是容易事先知道的D 贝叶斯最优分类器对应的总体风险称为贝叶斯风险
第3题
填空题
(1分) 从贝叶斯决策论的角度看,机器学习要实现的是基于有限的训练样本尽可能准确地估计出后验概率P(c|x) ,这句话是____(正确/错误)
第4题
单选题
(1分) 下列说法错误的是() A 生成式模型可以理解为在尝试还原数据原来的联合分布B SVM是判别式模型C 判别式模型直接对后验概率建模D 贝叶斯分类器是判别式模型
第5题
填空题
(1分) 贝叶斯主义一般做____(点/分布)估计
第6题
单选题
(1分) 下列说法错误的是() A 贝叶斯学习≠贝叶斯分类器B SVM属于统计学习C 用到了贝叶斯公式就是贝叶斯学习D 贝叶斯分类器是生成式模型
第7题
单选题
(1分) 下列说法错误的是() A 极大似然估计做了独立同分布假设B 极大似然估计的任务是利用训练集估计参数C 极大似然估计需先假设某种概率分布形式D 极大似然估计属于贝叶斯主义
第8题
填空题
(1分) 极大似然估计中,对数似然的解与原问题____(一致/不一致)
第9题
单选题
(1分) 下列说法错误的是() A 计算 P(x|c) 主要障碍之一是组合爆炸B 计算 P(x|c) 主要障碍之一是样本稀疏C 朴素贝叶斯分类器中,计算离散属性的 P(xi|c) 需要考虑概率密度函数D 朴素贝叶斯分类器中的概率密度函数,可以使用高斯分布
第10题
填空题
(1分) 考虑二分类问题,若数据集中有100个样本,其中负类样本有48个。令 c 表示正类,则 P(c) 的估计值是____(保留2位小数)
第11题
填空题
(1分) 考虑如图数据集,其中x1与x2为特征,其取值集合分别为x1={−1,0,1},x2={B,M,S},y为类别标记,其取值集合为y={0,1}。使用所给训练数据,学习一个朴素贝叶斯分类器,考虑样本x={0,B},请计算P(y=0)P(x|y=0)的值____(保留2位有效数字)。
第12题
填空题
(1分) 考虑如图数据集,其中x1与x2为特征,其取值集合分别为x1={−1,0,1},x2={B,M,S},y为类别标记,其取值集合为y={0,1}。使用所给训练数据,学习一个朴素贝叶斯分类器,这个分类器会将样本x={0,B}的标记预测为____
第13题
填空题
(1分) 考虑如图数据集,其中x1与x2为特征,其取值集合分别为x1={−1,0,1},x2={B,M,S},y为类别标记,其取值集合为y={0,1}。实际中估计概率值时,常用“拉普拉斯修正”,相关内容请阅读《机器学习》教材第153-154页。使用所给训练数据,使用“拉普拉斯修正”,学习一个朴素贝叶斯分类器,考虑样本x={0,B},请计算P(y=1)P(x|y=1)的值____(保留2位有效数字)。
第14题
单选题
(1分) 以下哪个选项是生成式模型? A 贝叶斯网B 对数几率回归C 决策树D 支持向量机
第15题
单选题
(1分) 最小化分类错误率的贝叶斯最优分类器为:对每个样本选择能使以下哪个选项最大的类别标记? A 后验概率B 类条件概率C 先验D 以上都不是
集成学习-作业
第1题
单选题
(1分) 下列关于集成学习描述错误的是哪个? A 集成学习只能使用若干个相同类型的学习器B 集成学习使用多个学习器解决问题C 集成学习在许多比赛中取得了优异的成绩D 集成学习在英文中是一个外来词
第2题
单选题
(1分) 下列哪些学习器可以作为集成学习中的学习器? A 支持向量机B 决策树C 神经网络D 其他选项都可以
第3题
填空题
(1分) 由若干个相同类型的学习器构成的集成学习被称为____ (同质/异质) 集成学习。
好而不同-作业
第1题
单选题
(1分) 下列哪个关于集成学习的描述是正确的? A 集成学习一定能取得比最好的个体学习器更好的性能B 集成学习的性能可能与个体学习器的平均性能相同C 集成学习的性能一定不差于最差的个体学习器D 集成学习的性能在个体学习器平均性能与个体学习器最佳性能之间
第2题
单选题
(1分) 下列哪个选项不是集成学习在分类任务中取得好性能的要求? A 个体学习器犯错的样本较为分散B 个体学习器具有较好的性能C 存在一个完美的个体学习器D 个体学习器分对的样本不完全一致
第3题
填空题
(1分) 误差-分歧分解表明集成学习中____(3个字) 是关键。
两类常用集成学习方法-作业
第1题
单选题
(1分) 下列哪个算法不是序列化集成学习方法? A XGBoostB Random ForestC AdaBoostD LPBoost
第2题
单选题
(1分) 下列哪个算法不是并行化集成学习方法? A GradientBoostB BaggingC Random ForestD Random Subspace
第3题
填空题
(1分) 集成学习中,后一个个体依赖于前一个个体的方法称为____(3个字) 方法。
Boosting-作业
第1题
单选题
(1分) 下列关于Boosting算法的说法中错误的是哪个? A Boosting算法适用于分类、回归、排序等机器学习问题B 后一个基学习器更关注前一个基学习器学错的样本C Boosting算法的输出是所有基学习器的加权求和D 不同基学习器使用的样本权重是相同的
第2题
单选题
(1分) 下列关于Boosting算法中样本权重调整的说法中错误的是哪个? A 所有样本的权重和保持不变B 前一个基学习器分错的样本会获得更大的权重C 只要权重调整的方向正确,Boosting算法的性能就可以获得理论保证D 决策树可以直接处理带权重的样本
第3题
填空题
(1分) Boosting是一种____ (同质/异质) 集成学习方法。
Bagging-作业
第1题
单选题
(1分) 下列关于Bagging算法中采样的描述哪个是错误的? A 可以使用Bootstrap采样B 每个样本在每个基学习器的数据集中只会出现一次C 采样是为了获得不同的基学习器D 不同基学习器的数据从相同分布中采样得到
第2题
单选题
(1分) 下列关于Bagging算法描述中错误的是哪个? A Bagging算法中每个基学习器使用相同的数据集B 分类任务中使用投票法获得输出C 回归任务中使用平均法获得输出D Random Forest是具有代表性的Bagging算法
第3题
填空题
(1分) Bagging算法使用的采样方法是____(有/无) 放回采样。
多样性度量-作业
第1题
单选题
(1分) 下列哪个选项是一种多样性度量? A Q-统计量B 不合度量C 相关系数D 其余选项都是
第2题
单选题
(1分) 下列关于多样性的描述中错误的是哪个? A 多样性度量中可以考虑模型的结构差异B 多样性的定义是集成学习中的圣杯问题C 可以基于两分类器的预测结果列联表定义许多不同的多样性度量D 已经有公认的多样性定义
第3题
填空题
(1分) ____(3个字) 是集成学习的关键。
聚类-作业
第1题
单选题
(1分) 下面哪一项属于聚类的作用? A 寻找数据内在的分布结构B 作为其他学习任务的前驱过程C 帮助寻找潜在的概念或者类别D 以上都是
第2题
单选题
(1分) 下面哪一项机器学习任务不属于无监督学习? A 分类B 聚类C 密度估计D 主成分分析
第3题
填空题
(1分) 聚类问题与下列哪一项监督学习任务更加相近?____(分类/回归)
聚类方法概述-作业
第1题
单选题
(1分) k均值聚类属于下列哪一种聚类算法? A 原型聚类B 密度聚类C 层次聚类D 以上都是
第2题
单选题
(1分) 为了得到树形的聚类结构,应该使用下列哪一种聚类算法? A 原型聚类B 密度聚类C 层次聚类D 以上都是
第3题
填空题
(1分) 聚类好坏____(存在/不存在)绝对标准。
集成学习和聚类-章节测试
第1题
单选题
(1分) 下列关于误差-分歧分解的说法中正确的是哪个? A 这一分解表明特定条件下,集成学习的性能与个体学习器多样性正相关B 这一分解体现了多样性在回归、分类等机器学习任务中的重要性C 这一分解给出了一种可操作的多样性定义D 这一分解中的误差可以使用训练误差进行估计
第2题
单选题
(1分) 下列关于同质集成学习与异质集成学习对比的说法中错误的是哪个? A 异质集成学习能获得更多样的个体B 同质集成学习在实现上更加简单C 同质集成学习能更方便的对比个体的结果D 同质集成学习能获得性能更好的个体
第3题
单选题
(1分) 下列基于两分类器的预测结果连列表定义的表达式中,你认为哪个不适合作为多样性度量? A B C D
第4题
单选题
(1分) 下列关于集成学习的说法中错误的是? A 个体学习器准确率很高后,要增加多样性可以不牺牲准确性B 当基分类器的错误率相互独立时,随着个体数目的增大,集成错误率将指数级下降C 现实任务中,个体学习器很难做到相互独立D 集成学习的核心是如何产生并结合好而不同的个体学习器
第5题
单选题
(1分) 多样性是集成学习的关键,现实任务中往往会在学习过程中引入随机性来增强个体学习器的多样性,你认为下列哪个做法不是合适的增强多样性的方法? A 每个个体学习器使用不同的数据子集B 生成大量随机样本放入到数据集中C 每个个体学习器使用不同的输入属性子集D 当个体学习器有参数可以设置时,对不同个体学习器设置不同的参数
第6题
填空题
(1分) AdaBoost算法是一种常用的Boosting算法,该算法的伪代码如图所示,其中Zt用于确保Dt+1是一个分布。考虑由3个样本组成的训练集,在第1轮中基学习算法将样本1与样本2分类正确,样本3分类错误。则在第2轮中,样本1的权重为____ (保留3位小数)。
第7题
填空题
(1分) 上题第2轮中,样本3的权重为____(保留3位小数)。
第8题
填空题
(1分) 弱学习器指泛化性能略优于随机猜测的学习器,如二分类问题中指精度略高于0.5的分类器。那么在三分类问题中,弱学习器是指精度略高于____ (保留3位小数) 的学习器。
第9题
填空题
(1分) 当样本足够多时,使用3个基学习器的Bagging算法用到的训练数据的比例为____(小数形式并保留3位小数)。
第10题
填空题
(1分) 随机森林是一种典型的Bagging算法。随机森林使用的决策树的每个结点,先从该结点的属性集合中随机选择包含部分属性的属性子集,再从这个子集中选择一个最优的属性用于划分。这样生成的单棵决策树与单棵传统决策树相比,性能往往____ (更高/相同/更低)。
第11题
填空题
(1分) 随机森林与传统决策树构成的森林相比,多样性往往____(更高/相同/更低)。
第12题
单选题
(1分) 当我们想将无标记的数据分成若干簇时,应该选用下列什么类型的算法? A 分类B 回归C 以上都可以D 聚类
第13题
单选题
(1分) 下面哪一项是通过样本分布的紧密程度确定聚类结构的聚类算法? A 原型聚类B 密度聚类C 层次聚类D 以上都是
第14题
填空题
(1分) 下图所示聚类结构____(可以/不可以)通过标准型的k均值聚类算法得到。注:标准型指不使用核方法。
第15题
填空题
(1分) 下图所示聚类结构最可能通过____(原型聚类/密度聚类/层次聚类)得到
第1题
单选题
(1分) 机器学习的经典定义是:利用()改善系统自身的性能。 A 经验B 专家C 规则D 实践
第2题
单选题
(1分) 随着机器学习领域的发展,目前主要研究以下哪个领域的理论和方法? A 汇编语言B 程序设计C 硬件D 智能数据分析
第3题
单选题
(1分) 机器学习利用经验,必须对以下哪个选项进行分析? A 天气B 数据C 生活D 语言
典型的机器学习过程-作业
第1题
单选题
(1分) 课程视频的西瓜数据集中,“好瓜、坏瓜”是一个西瓜样例的什么? A 属性B 类别标记C 没有意义D 数据集名称
第2题
单选题
(1分) 对于要预测的新的数据样本,它的类别标记是? A 已知的B 未知的C 都可以D 负类
第3题
填空题
(1分) 机器学习的模型,____(是/不是)从数据中产生的。
计算学习理论-作业
第1题
单选题
(1分) 计算学习理论中最重要的理论模型是? A 计算模型B 数据模型C 机器学习D PAC
第2题
单选题
(1分) 以下哪个是对概率近似正确(PAC)的正确解释? A 以很低概率得到不好的模型B 以很低概率得到很好的模型C 以很高概率得到很好的模型D 以很高概率得到不好的模型
第3题
填空题
(1分) 机器学习____(有/没有)坚实的理论基础。
基本术语-作业
第1题
单选题
(1分) 课程视频中,训练数据中的“色泽”是什么?  A 属性B 属性值C 类别标记D 样本
第2题
单选题
(1分) 以下哪个选项指的是机器学习中的假设(hypothesis)? A 属性B 标记C 数据D 学到的模型
第3题
填空题
(1分) 多分类问题____(可以/不可以)分解为若干个二分类问题。
归纳偏好-作业
第1题
单选题
(1分) 归纳偏好指机器学习算法在学习过程中,对以下哪个选项的偏好? A 数据B 某种类型假设C 标记D 运行速度
第2题
单选题
(1分) 以下哪个选项是指“奥卡姆剃刀”原则? A 若有多个假设与观察一致,则随机选一个B 若有多个假设与观察一致,则选既不简单又不复杂的那个C 若有多个假设与观察一致,则选最简单的那个D 若有多个假设与观察一致,则选最复杂的那个
第3题
填空题
(1分) 利用“奥卡姆剃刀”原则时,确定哪个假设更“简单”,这个问题____(是/不是)简单的。
NFL定理-作业
第1题
单选题
(1分) 以下哪种说法描述了NFL定理? A 一个算法a若在某些问题上比另一个算法b好,必存在另一些问题没算法b好B 机器学习算法需要数据C 所有机器学习问题问题出现的机会相同D 一个算法a若在某些问题上比另一个算法b好,a一定比b需要更多数据
第2题
单选题
(1分) 以下哪个选项是NFL定理的重要前提? A 所有“问题”难度不同B 所有“问题”出现的机会服从任意分布C 所有“问题”出现的机会不相同D 所有“问题”出现的机会相同
第3题
填空题
(1分) 脱离具体问题,空泛地谈论“什么学习算法更好”____(有/没有)意义。
绪论-章节测试
第1题
单选题
(1分) 下列有关机器学习基本术语的说法错误的是 A 从数据中学得模型的过程称为“学习”或“训练”B 训练过程中使用的数据称为“训练数据”,每一个样本称为一个“训练样本”,训练样本组成的集合称为“训练集”C 学得模型对应了关于数据的某种潜在的规律,称为“假设”D 学习过程就是为了找出数据的某种潜在规律,这个规律自身,一般称为“数据特征”
第2题
单选题
(1分) 以下关于机器学习预测任务的说法错误的是() A 一般地,预测任务是希望通过对训练集进行学习,建立一个从输入空间到输出空间的映射B 对于二分类任务,一般令或C 对于回归任务,一般D 预测任务不需要训练样本的的标记信息
第3题
填空题
(1分) 聚类算法是机器学习中一种典型的____学习算法。(监督/无监督)
第4题
填空题
(1分) 学出来的模型适用于新样本的能力,称为 ____ 能力。该能力越强,说明学得的模型越能很好地适用于整个样本空间。
第5题
填空题
(1分) 学得模型后,使用其进行预测的过程称为____。
第6题
填空题
(1分) 根据训练数据是否拥有标记信息,我们可以将学习任务分为两大类,监督学习和____。
第7题
填空题
(1分) 分类和回归任务,按照数据是否拥有标记信息来说,属于机器学习中的____。
第8题
单选题
(1分) 下列不属于机器学习任务的是() A 人脸识别B 网页编写C 文本分类D 销量预测
第9题
单选题
(1分) 下列说法错误的是() A 模型是通过学习算法得到的B 机器学习通常解决高度不确定性和复杂性的问题C 分类和回归是监督学习的代表D 机器学习一定需要类别标记
第10题
单选题
(1分) 下列说法错误的是() A “色泽”取值为“青绿”,这里的“青绿”是属性值B 输出是离散值的学习任务为分类任务C 模型找出的规律一定是正确的D 一般假设正类和反类是可交换的
第11题
单选题
(1分) 下列说法错误的是() A 学得模型适用于新样本的能力称为“泛化”能力B 机器学习一般有“独立同分布”假设C 机器学习在只要见过的数据上做好就行了,未见过样本上的性能不重要D 一般假设拿到的所有数据都来自一个潜在的分布
第12题
填空题
(1分) 把见过的汽车分成若干组,这是一个____(分类/回归/聚类)任务
第13题
填空题
(1分) 上完机器学习课,小明在50个数据集上用不同算法模型进行训练和测试,发现算法a的效果一直比算法b好,他认为在所有问题上算法a的效果都会比b好。这个结论是____(正确/错误)的。
第14题
填空题
(1分) 奥卡姆剃刀原则中,两个假设哪一个“更简单”,是____(容易/不容易)判断的。
第15题
单选题
(1分) 下列关于归纳偏好的说法错误的是() A 机器学习算法在学习过程中对某种类型假设的偏好,称为“归纳偏好”,或简称为“偏好”B 一般来说,任何一个有效的机器学习算法都有其归纳偏好C “奥卡姆剃刀”原则在某些情况下可以指导我们选择偏好D 在任何情况下,总有一个最优的学习算法
泛化能力-作业
第1题
单选题
(1分) 下面哪一项可以作为模型好的标准? A 错误率低B 精度高C 召回率高D 上述指标都可以,但视具体任务和使用者需求而异
第2题
单选题
(1分) 我们希望模型在未见样本上表现好,这一能力通常被称作模型的什么能力? A 泛化能力B 建模能力C 学习能力D 拟合能力
第3题
填空题
(1分) 在评价模型性能时,我们更希望它____(泛化能力强/训练误差为0)
过拟合和欠拟合-作业
第1题
单选题
(1分) 模型在“未来”样本上的误差被称作 A 泛化误差B 经验误差C 学习误差D 训练误差
第2题
单选题
(1分) 有的情况下,模型学习到了训练数据满足的特有性质,但这些性质不是一般规律,这种现象被称之为 A 欠拟合B 过拟合C 欠配D 以上三个选项均不是
第3题
填空题
(1分) 在训练模型时,只需要保证模型的训练误差最小即可。____(是/否)
三大问题-作业
第1题
单选题
(1分) 模型选择有哪些关键问题? A 评估方法B 性能度量C 比较检验D 以上三个选项都是关键问题
第2题
单选题
(1分) 为了说明模型在统计意义上表现好,我们最需要考虑 A 评估方法B 性能度量C 比较检验D 以上三个选项都不需要考虑
第3题
填空题
(1分) 在没有“未来数据”的情况下,我们____(能/不能)通过训练集对泛化误差进行估计。
评估方法-作业
第1题
单选题
(1分) 下列什么方法可以用来获得从原始数据集中划分出“测试集”? A 留出法B 交叉验证法C 自助法D 以上三个选项都可以
第2题
单选题
(1分) 下面哪一项不是留出法的注意事项? A 需要保持训练集和测试集数据分布的一致性B 只需要进行一次划分C 测试集不能太大,不能太小D 以上选项都是
第3题
填空题
(1分) 训练集与测试集____(应该互斥/可以不互斥)
调参与验证集-作业
第1题
单选题
(1分) 调参以什么集合上的性能作为评价标准? A 训练集B 测试集C 验证集D 以上选项都可以
第2题
单选题
(1分) 当我们使用一个多项式函数去逼近数据集时,下面哪一个说法是正确的? A 多项式的次数是超参数B 多项式的系数是超参数C 多项式的次数必须通过数据去学习D 以上说法都是正确的
第3题
填空题
(1分) 超参数一般由____(人工/学习)确定。
性能度量-作业
第1题
单选题
(1分) “好”模型取决于下列哪些因素? A 算法B 数据C 任务需求D 以上选项都是
第2题
单选题
(1分) 收购西瓜的公司希望把瓜摊的好瓜都尽量收走,请问他的评价标准是? A 错误率B 精度C 查准率D 查全率
第3题
填空题
(1分) 回归任务的性能度量之一均方误差  添加系数后  会影响判断哪个模型是最好的。____(是/否)
比较检验-作业
第1题
单选题
(1分) 以下什么检验是基于列联表的? A 交叉验证t检验B McNemar检验C 以上检验都是基于列联表的D 以上检验都不是基于列联表的
第2题
单选题
(1分) 下面关于交叉验证t检验错误的是? A 适用于模型采用k折交叉验证的评估方法B 基于成对t检验C 无法判断统计显著性D 需要用到模型评估时k折交叉验证的k个结果
第3题
填空题
(1分) 两种算法在某种度量下取得评估结果后,可以直接比较以评价优劣。____(是/否)
模型评估与选择-章节测试
第1题
单选题
(1分) 在训练集上的误差被称作 A 泛化误差B 经验误差C 测试误差D 以上三个选项都不对
第2题
单选题
(1分) 当学习任务对数据分布的轻微变化比较鲁棒且数据量较少时,适合使用什么样的数据集划分方式? A 留出法B 交叉验证法C 自助法D 以上三个选项都可以
第3题
单选题
(1分) 我们通常将数据集划分为训练集,验证集和测试集进行模型的训练,参数的验证需要在__上进行,参数确定后__重新训练模型。 A 训练集 需要B 训练集 不需要C 验证集 需要D 验证集 不需要
第4题
单选题
(1分) 当西瓜收购公司去瓜摊收购西瓜时既希望把好瓜都收走又保证收到的瓜中坏瓜尽可能的少,请问他应该考虑什么评价指标? A 精度B 查全率C 查准率D F1度量
第5题
单选题
(1分) 两种算法在某种度量下取得评估结果后不能直接比较以评判优劣的原因中,正确的是 A 测试性能不等于泛化性能B 测试性能随着测试集的变化而变化C 很多机器学习算法本身有一定的随机性D 以上均正确
第6题
填空题
(1分) 训练模型时,选择经验误差最小的模型会存在什么风险。____(过拟合/欠拟合)
第7题
填空题
(1分) 对于从数据(0,1),(1,0),(1,2),(2,1)通过最小二乘拟合的不带偏置项的线性模型y=x,其训练误差(均方误差)为____ (保留三位小数)
第8题
填空题
(1分) 使用留出法对数据集进行划分时,为了保持数据分布的一致性,可以考虑什么采样。____(分层采样/随机采样/有放回采样)
第9题
填空题
(1分) 当我们使用留出法对数据集进行划分后,在训练集上通过两个不同的算法训练出2个模型,并通过测试集上的性能评估得到表现最好的模型,这一模型可以直接推荐给用户。 ____(是/否)
第10题
填空题
(1分) 考虑一个三分类数据集,其由30个西瓜,30个苹果,30个香蕉构成。先有一个学习策略为预测新样本为训练集中样本数目最多类别的分类器(存在多个类别样本数量一样多时则随机选择一个类别预测),请问通过什么评估方式会导致其平均准确率为0。____(留出法/交叉验证,每一折样本数大于1/留一法)
第11题
填空题
(1分) 当我们使用留一法进行评估时会出现什么问题。____(训练模型与使用整个数据集训练的模型差异大/经验误差与泛化误差偏差大)
第12题
填空题
(1分) 考虑如下分类结果混淆矩阵,其F1度量为____(保留3位小数)
第13题
填空题
(1分) McNemar检验基于____(成对t检验/卡方检验)
第14题
单选题
(1分) 假设我们已经建立好了一个二分类模型, 输出是0或1, 初始阈值设置为0.5, 超过0.5概率估计就判别为1, 否则就判别为0 ; 如果我们现在用另一个大于0.5的阈值, 一般来说,下列说法正确的是 A 查准率会上升或不变,查全率会下降或不变B 查准率会下降或不变,查全率会下降或不变C 查准率会上升或不变,查全率会上升或不变D 查准率会下降或不变,查全率会上升或不变
第15题
单选题
(1分) 对于留出法,下列说法正确的是 A 测试集小的时候,评估结果的方差较大B 训练集小的时候,评估结果的偏差较大C 留出法需要对数据集进行多次切分并将结果取平均值D 以上说法均正确
线性回归-作业
第1题
单选题
(1分) 以下哪个不是线性模型的优势? A 简单B 复杂C 基本D 可理解性好
第2题
单选题
(1分) 示例的属性可以属于下列哪个类别? A 无序的离散属性B 连续属性C 有序的离散属性D 以上都对
第3题
填空题
(1分) 一卖伞商家想利用天气来预测销售额,已知他只考虑温度、湿度、降雨量三种天气特征。若商家使用线性回归模型预测,则模型的输入是____ (填写阿拉伯数字) 维度的。
最小二乘解-作业
第1题
单选题
(1分) 最小二乘参数估计得到的线性回归模型满足什么性质? A 均方误差为0B 均方误差最大C 均方误差最小D 均方误差为1
第2题
单选题
(1分) 最小二乘法的求解步骤是什么?  (1) 均方误差对w与b求偏导;(2) 令偏导为0;(3) 求解线性方程组。 A (1)(2)(3)B (1)(3)(2)C (2)(1)(3)D (3)(1)(2)
第3题
填空题
(1分) 基于均方误差最小化来进行模型求解的方法称为____(5个字)。
多元线性回归-作业
第1题
单选题
(1分) 为了书写的简化,多元线性回归会使用下列哪种记号? A 将  与  合并为一个向量,在  的最后增加一列1B 将  与1合并为一个向量,在  的最后增加一列 C 将  与1合并为一个向量,在  的最后增加一列D 将  与  合并为一个向量,在  的最后增加一列
第2题
单选题
(1分) 当下列哪个条件满足时,多元线性回归的最小二乘解唯一? A  不满秩B  满秩C  满秩D 不满秩
第3题
填空题
(1分) 当‍  不满秩时,多元线性回归需要引入____(regularization)。
广义线性模型-作业
第1题
单选题
(1分)  被称为什么模型? A 线性指数回归B 线性对数回归C 指数线性回归D 对数线性回归
第2题
单选题
(1分) 对数线性回归是令广义线性模型中的联系函数为什么函数的特例? A 指数函数B 对数函数C 二次函数D 绝对值函数
第3题
填空题
(1分) 广义线性模型的一般形式为 ,其中  被称为____(link function)。
对率回归-作业
第1题
单选题
(1分) 单位阶跃函数的缺点是什么? A 不连续且不可微B 单调增C 非负D 最大值为1
第2题
单选题
(1分) 对数几率函数作为单位阶跃函数的替代函数的优点是什么? A 具有中心对称性B 严格大于0C 单调且任意阶可导D 不需要写成分段形式
第3题
填空题
(1分)  反映了  作为正例的相对可能性,这个量在统计学中被称为____。
对率回归求解-作业
第1题
单选题
(1分) 对数几率回归为什么不能通过令偏导为0求解? A 均方损失函数太复杂B 均方损失非凸C 均方损失没有偏导为0的点D 均方损失没有极值点
第2题
单选题
(1分) 下列关于梯度下降法描述错误的是? A 可以用于求解对数几率回归B 是一种迭代求解的方法C 可以比较好的并行化D 可以高效地求解所有凸优化问题
第3题
填空题
(1分) 极大似然法最大化____函数。
类别不平衡-作业
第1题
单选题
(1分) 类别不平衡问题中何时需要做特殊处理? A 大类比小类重要B 小类和大类一样重要C 小类比大类重要D 任何情况
第2题
单选题
(1分) 以下哪种方法不是常见的类别不平衡学习方法? A 最小二乘法B 过采样C 欠采样D 阈值移动
第3题
填空题
(1分) 处理类别不平衡问题时,通过丢掉一部分大类样本使得训练集平衡的方法被称为____ (3个字)。
线性模型-章节测试
第1题
单选题
(1分) 下列关于对数几率回归的描述中错误的是? A 无需事先假设数据分布B 使用对数函数作为联系函数C 可得到类别的近似概率预测D 可直接应用现有数值优化算法求取最优解
第2题
单选题
(1分) 孙悟空想请你帮他预测下一次妖精会在多久后出现,你会使用下列哪种方法? A 使用历史上妖精出现的时间以及八戒每日食量数据,并使用对率回归模型B 使用历史上妖精出现的时间以及师父念紧箍咒的时间数据,并使用指数线性回归模型C 使用历史上妖精出现的时间以及师徒四人的前进速度数据,并使用多元线性回归模型D 使用历史上妖精出现的时间以及沙和尚每日体重数据,并使用对数线性回归模型
第3题
单选题
(1分) 处理类别不平衡问题时,复制小类样本不是一种好的过采样方法,下列哪个不是其原因? A 复制样本效率低下B 容易过拟合C 受噪声影响大D 有过拟合噪声的风险
第4题
单选题
(1分) Jerry想通过西瓜的重量、西瓜的颜色、西瓜根蒂的长短来判断一个西瓜是否是好瓜,Jerry记录了一些购买西瓜的记录如下:(5500g,乌黑,长,否), (6000g,青绿,很长,是), (5800g,翠绿,短,是)。如果Jerry想收集更多西瓜数据并利用线性模型判断西瓜好坏,下列哪个选项是上述三个记录的合理表示? A (5500,1,2), (6000,2,4), (5800,3,1)B (5.5,1,0,0,3), (6,0,0,1,5), (5.8,0,1,0,1)C (5500,1,0,0,5), (6000,0,1,0,3), (5800,0,0,1,1)D (5.5,1,0,0,3), (6,0,1,0,2), (5.8,0,0,1,1)
第5题
单选题
(1分) 小明想利用心率数据、运动与用餐时间间隔这两项数据来预测是否会发生低血糖,他利用平时锻炼数据收集了100个未发生低血糖的数据与3个发生低血糖的数据,3个发生低血糖的数据为:(180,比较久), (170,久), (165,非常久)。小明想请你帮他过采样一些低血糖数据,你认为下列哪个数据是合理的过采样数据? A (175,比较久)B (200,久)C (150,非常久)D (175,不久)
第6题
单选题
(1分) 下列哪个模型不是广义线性模型? A B C D
第7题
单选题
(1分) 下列哪个选项不是多元线性回归使用正则化的原因? A 计算机数值精度有限B 样例维度大于样例数C 样例的采样过程存在偏差D 存在大量线性相关的样例
第8题
单选题
(1分) 在求解对率回归时,下列哪个选项不是极大似然法的优势? A 优化目标是凸函数B 具有闭式解C 可以使用梯度下降法求解D 优化目标连续可微
第9题
填空题
(1分) 给定数据集,最小二乘法学得的线性模型的斜率为____ (保留3位小数)。
第10题
填空题
(1分) 给定数据集,最小化数据集到线性模型的欧式距离的平方和学得的线性模型满足。对于数据集,这一方法学得的线性模型的斜率为____ (保留3位小数)。
第11题
填空题
(1分) 比较上述两题求得的斜率值,最小二乘法求得的斜率____(大于/等于/小于) 最小化数据集到线性模型欧式距离的平方和求得的斜率。这一结论对一般问题也成立,可尝试证明之。
第12题
填空题
(1分) OvR是一种常用的多分类方法,该方法每次将一个类的样例作为正例、所有其他类的样例作为反例。对于类别均衡的10分类问题,若使用OvR以及阈值移动法来训练,则阈值应设为____ (保留3位小数)。
第13题
填空题
(1分) 对率回归可以得到样例是正类的概率的____(精确值/近似估计)。
第14题
填空题
(1分) 对率回归____(需要/不需要) 事先假设数据分布。
第15题
填空题
(1分) 多元线性回归不满秩的情况下____(是/否)可以通过加入归纳偏好来选取较好的解。
决策树基本流程-作业
第1题
单选题
(1分) 下列选项哪个是决策树的预测过程? A 将测试示例从一个中间节点开始,沿着划分属性所构成的“判定测试序列”下行,直到叶节点B 将测试示例从一个中间节点开始,沿着划分属性所构成的“判定测试序列”上行,直到根节点C 将测试示例从叶节点开始,沿着划分属性所构成的“判定测试序列”上行,直到根节点D 将测试示例从根节点开始,沿着划分属性所构成的“判定测试序列”下行,直到叶节点
第2题
单选题
(1分) 决策树学习的策略是什么? A 分而治之B 集成C 聚类D 排序
第3题
填空题
(1分) 决策树训练时,若当前结点包含的样本全属于同一类别,则____(需要/无需)划分
信息增益划分-作业
第1题
单选题
(1分) 信息熵是度量样本集合 [填空1] 最常用的一种指标 A 纯度B 对称差C 大小D 重要性
第2题
单选题
(1分) 以下哪个选项是信息增益的定义? A 划分前的信息熵-划分后的信息熵B 划分后的信息熵-划分前的信息熵C 划分前的信息熵/划分后的信息熵D 划分后的信息熵+划分前的信息熵
第3题
填空题
(1分) 在二分类任务中,若当前样本集合的正类和负类的数量刚好各一半,此时信息熵为____(保留一位小数)
其他属性划分准则-作业
第1题
单选题
(1分) 下列说法错误的是() A CART算法在候选属性集合中选取使划分后基尼指数最大的属性B 划分选择的各种准择对泛化性能的影响有限C 划分选择的各种准择对决策树尺寸有较大影响D 相比划分准则,剪枝方法和程度对决策树泛化性能的影响更为显著
第2题
单选题
(1分) 增益率的表达式是Gain_ratio(D,a)=() A Gain(D,a)+IV(a)B Gain(D,a)-IV(a)C Gain(D,a)*IV(a)D Gain(D,a)/IV(a)
第3题
填空题
(1分) 对视频中出现的西瓜数据集2.0(《机器学习》教材第76页),划分前的信息熵为0.998,若使用编号属性进行划分,则信息增益为____(保留3位小数)
决策树的剪枝-作业
第1题
单选题
(1分) 剪枝是决策树学习算法对付什么现象的主要手段? A 标记噪声B 数据少C 过拟合D 欠拟合
第2题
单选题
(1分) 提前终止某些分支的生长,这个策略的名称是什么? A 预剪枝B 后剪枝C 不剪枝D 随机剪枝
第3题
填空题
(1分) 决策树剪枝的基本策略有“____”和“后剪枝”
缺失值的处理-作业
第1题
单选题
(1分) 决策树算法一般是如何对缺失属性进行处理的? A 仅使用无缺失的样例B 对缺失值进行随机填充C 用其他属性值预测缺失值D 利用“样本赋权,权重划分”的思想解决
第2题
单选题
(1分) 决策树处理缺失值的基本思路是“样本赋权,权重划分”,其中“权重划分”指的是以下哪个选项? A 给定划分属性,若样本在该属性上的值缺失,会按进入权重最大的一个分支B 给定划分属性,若样本在该属性上的值缺失,会按权重随机进入一个分支C 给定划分属性,若样本在该属性上的值缺失,会按权重同时进入所有分支D 给定划分属性,若样本在该属性上的值缺失,会按进入权重最小的一个分支
第3题
填空题
(1分) 决策树处理有缺失值的样本时,仅通过____(有/无)缺失值的样例来判断划分属性的优劣
决策树-章节测试
第1题
单选题
(1分) 决策树划分时,若当前结点包含的样本集合为空,则应该怎么做? A 将结点标记为叶结点,其类别标记为父结点中样本最多的类B 将结点标记为叶结点,其类别标记为父结点中样本最少的类C 将结点标记为叶结点,其类别标记为父结点中任意一个类D 从其他结点获得样本,继续进行划分
第2题
单选题
(1分) 决策树划分时,当遇到以下哪种情形时,将结点标记为叶节点,其类别标记为当前样本集中样本数最多的类 A 当前属性集为空,或所有样本在所有属性上取值相同B 当前属性集不为空,或所有样本在所有属性上取值相同C 当前结点包含的样本集合为空,或当前属性集为空D 当前结点包含的样本集合为空,或所有样本在所有属性上取值相同
第3题
填空题
(1分) ID3决策树划分时,选择信息增益最____(大/小)的属性作为划分属性
第4题
填空题
(1分) 若数据集的属性全为离散值,决策树学习时,____(可以/不可以)把用过的属性再作为划分属性。
第5题
单选题
(1分) 下列说法错误的是() A 信息增益准则对可取值较少的属性有所偏好B C4.5算法并不是直接选择增益率最大的候选划分属性C 基尼指数反映了从数据集中随机抽取两个样本,其类别标记不一致的概率D 基尼指数越小,数据集的纯度越高
第6题
填空题
(1分) 对视频中出现的西瓜数据集2.0(《机器学习》教材第76页),属性“触感”和“色泽”,____(触感/色泽)的增益率更大
第7题
填空题
(1分) 对视频中出现的西瓜数据集2.0(《机器学习》教材第76页),属性“色泽”的基尼指数为____(保留2位有效数字)
第8题
单选题
(1分) 随着决策树学习时的深度增加,会发生什么现象? A 位于叶结点的样本越来越少B 不会把数据中不该学到的特性学出来C 决策树不会过拟合D 叶结点一定学到一般规律
第9题
填空题
(1分) 只学习一颗决策树作为模型时,一般____(要/不要)选择剪枝
第10题
填空题
(1分) (本题需阅读教材79-83页中剪枝的例子)考虑如图的训练集和验证集,其中“性别”、“喜欢ML作业”是属性,“ML成绩高”是标记。假设已生成如图的决策树,用精度(accuracy)衡量决策树的优劣,预剪枝的结果____(是/不是)原本的决策树。
第11题
填空题
(1分) (本题需阅读教材79-83页中剪枝的例子)考虑如图的训练集和验证集,其中“性别”、“喜欢ML作业”是属性,“ML成绩高”是标记。假设已生成如图的决策树,用精度(accuracy)衡量决策树的优劣,后剪枝的结果____(是/不是)原本的决策树。
第12题
单选题
(1分) 下列说法正确的是() A 决策树处理缺失值时,仅通过无缺失值的样例来判断划分属性的优劣B 若数据中存在缺失值,决策树会仅使用无缺失的样例C 若数据维度很高,不容易出现大量缺失值D 对决策树,给定划分属性,若样本在该属性上的值缺失,会随机进入一个分支
第13题
填空题
(1分) 决策树处理有缺失值样本时,一个样本在各子节点中的权重和为____(保留一位小数)
第14题
单选题
(1分) 关于剪枝,下列说法错误的是() A 对于同一棵树,进行预剪枝和后剪枝得到的决策树是一样的B 决策树的剪枝算法可以分为两类,分别称为预剪枝和后剪枝C 预剪枝在树的训练过程中通过停止分裂对树的规模进行限制D 后剪枝先构造出一棵完整的树,然后通过某种规则消除掉部分节点,用叶子节点替代
第15题
单选题
(1分) 通常来说,子节点的基尼不纯度与其父节点是什么样的关系? A 通常更低B 通常更高C 永远更高D 永远更低
支持向量机基本型-作业
第1题
单选题
(1分) 对于线性可分的二分类任务样本集,将训练样本分开的超平面有很多,支持向量机试图寻找满足什么条件的超平面? A 在正负类样本“正中间”的B 靠近正类样本的C 靠近负类样本的D 以上说法都不对
第2题
单选题
(1分) 下面关于支持向量机的说法错误的是? A 支持向量机基本型是一个凸二次规划问题B 将训练样本分开的超平面仅由支持向量决定C 支持向量机的核心思想是最大化间隔D 以上选项存在说法错误的
第3题
填空题
(1分) 两个异类支持向量到超平面的距离之和称之为____(两个字)
对偶问题与解的特性-作业
第1题
单选题
(1分) 下面哪一项不是支持向量机基本型得到对偶问题的求解步骤 A 引入拉格朗日乘子得到拉格朗日函数B 对拉格朗日函数求偏导并令其为0C 回带变量关系D 梯度下降
第2题
单选题
(1分) 下面关于支持向量机对偶问题的说法错误的是 A 对偶问题需要满足KKT条件B 通过对偶问题推导出的模型表达式能够体现解的稀疏性C 在推导对偶问题时,引入的拉格朗日乘子没有约束条件D 对偶问题的最优值是原始问题最优值的下界
第3题
填空题
(1分) 通过____可以得到支持向量机的对偶问题。(7个字,优化算法)
求解方法-作业
第1题
单选题
(1分) 下面关于SMO算法说法正确的是 A 是一个迭代更新的算法B 先选取KKT条件违背程度最大的变量C 当变量固定后,原始问题具有闭式解D 以上说法都是正确的
第2题
单选题
(1分) 在求解支持向量机截距项的时候错误的说法是 A 通过任意支持向量都能够求解出截距项B 为了提高鲁棒性,通常使用所有支持向量求解的平均值C 通过任意样本都能够求解出截距项D 截距项的求解能够体现支持向量机学习到的超平面仅与少量支持向量有关
第3题
填空题
(1分) 在使用SMO方法优化支持向量机的对偶问题时,每次需要选择几个变量并固定其他变量不变。 ____(只需填写数字)
特征空间映射-作业
第1题
单选题
(1分) 如果不存在一个能正确划分两类样本的超平面,应该怎么办? A 将样本从原始空间映射到一个更高维的特征空间,使样本在这个特征空间内线性可分B 将样本从原始空间映射到一个更高维的特征空间,使样本在这个特征空间内线性不可分C 将样本从原始空间映射到一个更低维的特征空间,使样本在这个特征空间内线性可分D 将样本从原始空间映射到一个更低维的特征空间,使样本在这个特征空间内线性不可分
第2题
单选题
(1分) 将样本映射到高维空间后,支持向量机问题的表达式为 A B C D
第3题
填空题
(1分) 如果原始空间是有限维(属性数有限),那么____(一定/不一定)存在一个高维特征空间使样本线性可分。
核函数-作业
第1题
单选题
(1分) 关于核函数的说法,正确的是 A 能绕过显式考虑特征映射B 能够缓解计算高维内积的困难C 能够直接在原始的特征空间计算D 以上说法都是正确的
第2题
单选题
(1分) 若一个对称函数对于任意数据所对应的核矩阵_,则它就能作为核函数来使用 A 正定B 半正定C 负定D 半负定
第3题
填空题
(1分) 任何一个核函数,都隐式地定义了一个____(九个字)
如何使用SVM-作业
第1题
单选题
(1分) 对于ϵ-不敏感损失函数,说法正确的是 A 当自变量的绝对值小于ϵ时,没有惩罚 B 当自变量的绝对值小于ϵ时,惩罚是线性的C 当自变量的绝对值大于ϵ时,没有惩罚D 当自变量的绝对值大于ϵ时,惩罚是二次的
第2题
单选题
(1分) 下面关于支持向量回归,说法错误的是 A 间隔带两侧的松弛程度可有所不同B 支持向量回归一般要求损失为0当且仅当模型的输出和实际值一样C 支持向量回归也存在对偶问题D 支持向量回归模型的解仍然具有稀疏性
第3题
填空题
(1分) 对于2-不敏感损失,当自变量取值为10时,损失为____(保留整数)
支持向量机-章节测试
第1题
单选题
(1分) 下列关于支持向量机的用法正确的是? A 当数据是线性可分时,可以考虑支持向量机的基本型B 当数据是线性不可分时,可以考虑引入核函数的支持向量机C 若使用引入核函数的支持向量机,可以通过模型选择等技术挑选较为合适的核函数D 以上说法都是正确的
第2题
单选题
(1分) 下列哪一项是支持向量机基本型对偶问题的KKT条件? A B C D 以上条件均不对
第3题
单选题
(1分) 下面关于支持向量机的优化错误的是? A 可以通过常规的优化计算包求解B 可以通过SMO进行高效的求解C 在使用SMO时需要先推导出支持向量机的对偶问题D SMO需要迭代的进行求解,且每一步迭代的子问题不存在闭式解
第4题
单选题
(1分) 考虑两个正例样本(0,0),(1,1)和两个负例样本(1,0),(0,1),这四个样本是线性不可分的,通过下列哪一个映射函数可以让这四个样本线性可分? A 【注:为示性函数,当自变量为真时取值为1,否则取值为0】B C D 以上映射函数都满足条件
第5题
单选题
(1分) 下面关于支持向量回归说法正确的是 A 当样本距离超平面的距离小于一定程度时,没有损失B 解具有稀疏性C 当样本距离超平面的距离大于一定程度时,有损失且损失随着距离线性增加D 以上说法都是正确的
第6题
填空题
(1分) 支持向量机的“间隔”定义为两个异类支持向量到超平面的距离之和,支持向量机的核心思想是____(最大化/最小化)间隔。
第7题
填空题
(1分) 支持向量机对偶问题得到的目标函数最优值是原始问题目标函数最优值的____(上界/下界)
第8题
填空题
(1分) 考虑正类样本(-1,0),(0,1),(-1,1) 和负类样本(1,0),(0,-1),(1,-1),若使用支持向量机算法,则其支持向量有____个。
第9题
填空题
(1分) 支持向量机的解具有什么性质?____(三个字)
第10题
填空题
(1分) 在求解支持向量机对偶问题时,引入的拉格朗日乘子____(有/没有)约束条件。
第11题
填空题
(1分) 对于两个样本点(0,0),(1,1),若我们将其投影到与高斯核函数关联的RKHS中时,则两个样本投影后的点距离为____(保留三位小数)
第12题
填空题
(1分) 试判断定义在上的函数是否为核函数。____(是/否)
第13题
填空题
(1分) 试判断定义在上的函数是否为核函数。____(是/否)
第14题
单选题
(1分) 对于支持向量机定义的超平面,下列说法错误的是 A 通过支持向量机求解出的划分超平面是对训练样本局部扰动的“容忍”性最好的划分超平面B 对于所有可能的划分超平面,通过支持向量机求解出的划分超平面所产生的分类结果是较鲁棒的,是对未见示例的泛化能力较强的C 支持向量机的“间隔”为,表示向量的模D 可以通过求解对偶问题的方法来求解支持向量机的最大间隔划分超平面
第15题
单选题
(1分) 关于支持向量机基本型中间隔、支持向量和超平面wx+b=0的说法,下列说法正确的是 A 对于线性可分的训练样本,存在唯一的超平面将训练样本全部分类正确B 对于线性可分的训练样本,支持向量机算法学习得到的能够将训练样本正确分类且具有“最大间隔”的超平面是存在并且唯一的C 支持向量机训练完成后,最后的解与所有训练样本都有关D 间隔只与w有关,与b无关
神经网络模型-作业
第1题
单选题
(1分) 神经网络模型的两个最重要的要素是什么? A 网络结构、激活函数B 网络结构、神经元模型C 激活函数、学习算法D 学习算法、神经元模型
第2题
单选题
(1分) 以下哪个名称不是activation function的翻译? A 响应函数B 挤压函数C 激活函数D 损失函数
第3题
单选题
(1分) 目前神经网络最常用的网络结构是下列哪个选项? A 单层后向网络B 多层后向网络C 单层前馈网络D 多层前馈网络
万有逼近能力-作业
第1题
单选题
(1分) 下列哪个选项是神经网络万有逼近的正确表述? A 仅需一个包含足够多神经元的隐层,多层前馈神经网络就能以任意精度逼近任意复杂度的可测函数B 仅需一个包含足够多神经元的隐层,多层前馈神经网络就能完美表示任意复杂度的连续函数C 仅需一个包含足够多神经元的隐层,多层前馈神经网络就能以任意精度逼近任意复杂度的连续函数D 仅需一个包含100000000个神经元的隐层,多层前馈神经网络就能以任意精度逼近任意复杂度的连续函数
第2题
单选题
(1分) 下列哪个模型不具备万有逼近性? A 线性模型B 泰勒展开C 傅里叶变换D 决策树
第3题
填空题
(1分) 多层前馈网络具有的强大表示能力称为神经网络的____性 (4个字)。
BP算法推导-作业
第1题
单选题
(1分) 下列关于BP算法的描述哪个是错误的? A BP算法适用于平方损失等许多常用损失函数B BP算法是迄今最成功、最常用的神经网络算法C BP算法的正式完整描述最早出现在1974年Werbos的博士学位论文中D BP算法只能用于回归任务
第2题
单选题
(1分) BP算法的每一轮采用的是什么学习规则? A 广义感知机学习规则B 广义最小二乘学习规则C 广义决策树学习规则D 广义支持向量机学习规则
第3题
填空题
(1分) BP算法的全称为____(7个字)。
神经网络-章节测试
第1题
单选题
(1分) 下列关于BP算法使用小步长优化神经网络的说法中正确的是哪个? A 一定能学到最优解B 可以较好的避免振荡现象C 训练速度快D 学得的解比使用大步长具有更小的泛化误差
第2题
单选题
(1分) 下列关于多层前馈神经网络的描述中错误的是哪个? A 可以使用BP算法优化B 至少包含一个隐层C 神经元之间不存在同层连接D 输入层可以直接连接到输出层
第3题
单选题
(1分) 多层前馈神经网络可以视为线性函数与激活函数的复合,而单隐层前馈神经网络中这种复合的次数有限,因而单隐层前馈神经网络的万有逼近性对激活函数有一定要求。你认为使用下列哪个激活函数的单隐层前馈神经网络能具有万有逼近性质? A 双曲正切函数B 常值函数C 线性函数D 三次函数
第4题
单选题
(1分) 下列哪个选项的步长调整方法是给出的四种方案中最好的? A 先使用较大的步长,后使用较小的步长B 先使用较小的步长,后使用较大的步长C 一直使用较大的步长D 一直使用较小的步长
第5题
单选题
(1分) 下列关于万有逼近描述正确的是哪个选项? A 万有逼近是神经网络独有的性质B 神经网络的万有逼近性表明可以很容易的找到一个很好的解C 具有万有逼近性是将神经网络作为机器学习模型的前提D 神经网络的万有逼近性可以指导我们设置隐层神经元数
第6题
填空题
(1分) Sigmoid函数在 x=0.5 处的导数值为____(保留3位小数)。
第7题
填空题
(1分) 具有10个隐层结点的单隐层网络在处理输入维度为6维的三分类任务时 (有3个输出层结点),网络中共有____ (填写一个整数) 个参数。
第8题
填空题
(1分) 实际应用中常使用试错法来设置隐层神经元数,当问题较复杂时,通常使用较____(多/少) 隐层神经元。
第9题
填空题
(1分) 考虑一个有1个输入结点、1个隐层结点、1个输出结点构成的神经网络,该网络输入到隐层的权重与隐层到输出的权重共享,即该神经网络的前馈表达式为,其中为Sigmoid激活函数。考虑由两个样本组成的数据集,神经网络初始化参数为,使用平方损失作为损失函数 (总损失为所有样本的平方和损失,不除以2)。则该神经网络在初始化下的损失为____ (保留3位小数)。
第10题
填空题
(1分) 上述损失关于ω的偏导在初始点处的取值为____(保留3位小数)。
第11题
填空题
(1分) 上述损失关于 b 的偏导在初始点处的取值为____ (保留3位有效数字)。
第12题
填空题
(1分) 当步长取为0.5时,使用BP算法更新神经网络模型后,模型的损失为____ (保留3位小数)。
第13题
填空题
(1分) 当步长取为20时,使用BP算法更新神经网络模型后,模型的损失为____ (保留3位小数)。对比上述两种步长值,体会步长选取与振荡现象的关系。
第14题
单选题
(1分) 用学习率α=0.3 进行15次梯度下降迭代,每次迭代后计算损失。如果发现损失值下降缓慢,并且在15次迭代后仍在下降。基于此,以下哪个结论最可信? A α=0.3是学习率的有效选择B 当前学习率设置偏小C 当前学习率设置偏大D 无法从当前现象对学习率进行判断
第15题
单选题
(1分) 下图是某一激活函数的图像,下列哪个选项可能是该激活函数的表达式? A B C D
贝叶斯决策论-作业
第1题
单选题
(1分) 下列说法正确的是() A 贝叶斯决策论是概率框架下实施决策的基本理论B 表示把样本 x 分到第 i 类面临的风险C 如果概率都能拿到真实值,那么根据贝叶斯判定准则做出的决策是理论上最好的决策D 以上都正确
第2题
单选题
(1分) 以下哪个选项是对贝叶斯最优分类器的描述? A 对每个样本 x 选择能使后验概率最大的类别标记B 对每个样本 x 选择能使后验概率最小的类别标记C 对每个样本 x 选择能使条件风险最大的类别标记D 对每个样本 x 选择能使条件风险最小的类别标记
第3题
填空题
(1分) 反映了分类器所能达到的最____(好/坏)性能
生成式和判别式模型-作业
第1题
单选题
(1分) 决策树属于什么模型? A 判别式B 生成式C 判别式和生成式D 以上都不对
第2题
单选题
(1分) 先对联合概率分布建模 P(x, c) ,再由此获得 P(c|x) ,属于什么模型? A 判别式B 生成式C 回归D 以上都不是
第3题
填空题
(1分) 机器学习估计后验概率分为两种基本策略,____式模型和生成式模型
贝叶斯分类器与贝叶斯学习-作业
第1题
单选题
(1分) 贝叶斯主义认为,分布的参数是什么? A 点B 分布C 点同时也是分布D 以上都不对
第2题
单选题
(1分) 统计学习属于什么主义? A 频率主义B 贝叶斯主义C 两者都是D 两者都不是
第3题
填空题
(1分) 贝叶斯学习____(等于/不等于)贝叶斯分类器
极大似然估计-作业
第1题
单选题
(1分) 极大似然中,若直接连乘,易造成什么现象? A 下溢B 上溢C 内存不足D 计算开销大
第2题
单选题
(1分) 对数似然中,一般对概率取对数,然后进行以下哪个的操作? A 求差B 求和C 求积D 以上都不是
第3题
填空题
(1分) 极大似然估计____(需要/不需要)假设某种概率分布形式
朴素贝叶斯分类器-作业
第1题
单选题
(1分) 贝叶斯公式中,估计后验概率 P(c|x) 的主要困难在于估计以下哪个选项? A p(c)B p(x|c)C 以上两者都是D 以上两者都不是
第2题
单选题
(1分) 朴素贝叶斯分类器中,对给定类别,模型对所有属性间的独立性有何种假设? A 部分不独立B 部分独立C 相互不独立D 相互独立
第3题
填空题
(1分) 对____(离散/连续)属性,计算条件概率可考虑概率密度函数
贝叶斯分类器-章节测试
第1题
填空题
(1分) 贝叶斯最优分类器____(达到了/没达到)了贝叶斯风险。
第2题
单选题
(1分) 在贝叶斯决策论中,下列说法错误的是() A 反映了机器学习所能产生的模型精度理论上限B 贝叶斯最优分类器在每个样本上选择那个能使条件风险 R(c|x) 最小的类别标记C 在实际中,贝叶斯决策论中的是容易事先知道的D 贝叶斯最优分类器对应的总体风险称为贝叶斯风险
第3题
填空题
(1分) 从贝叶斯决策论的角度看,机器学习要实现的是基于有限的训练样本尽可能准确地估计出后验概率P(c|x) ,这句话是____(正确/错误)
第4题
单选题
(1分) 下列说法错误的是() A 生成式模型可以理解为在尝试还原数据原来的联合分布B SVM是判别式模型C 判别式模型直接对后验概率建模D 贝叶斯分类器是判别式模型
第5题
填空题
(1分) 贝叶斯主义一般做____(点/分布)估计
第6题
单选题
(1分) 下列说法错误的是() A 贝叶斯学习≠贝叶斯分类器B SVM属于统计学习C 用到了贝叶斯公式就是贝叶斯学习D 贝叶斯分类器是生成式模型
第7题
单选题
(1分) 下列说法错误的是() A 极大似然估计做了独立同分布假设B 极大似然估计的任务是利用训练集估计参数C 极大似然估计需先假设某种概率分布形式D 极大似然估计属于贝叶斯主义
第8题
填空题
(1分) 极大似然估计中,对数似然的解与原问题____(一致/不一致)
第9题
单选题
(1分) 下列说法错误的是() A 计算 P(x|c) 主要障碍之一是组合爆炸B 计算 P(x|c) 主要障碍之一是样本稀疏C 朴素贝叶斯分类器中,计算离散属性的 P(xi|c) 需要考虑概率密度函数D 朴素贝叶斯分类器中的概率密度函数,可以使用高斯分布
第10题
填空题
(1分) 考虑二分类问题,若数据集中有100个样本,其中负类样本有48个。令 c 表示正类,则 P(c) 的估计值是____(保留2位小数)
第11题
填空题
(1分) 考虑如图数据集,其中x1与x2为特征,其取值集合分别为x1={−1,0,1},x2={B,M,S},y为类别标记,其取值集合为y={0,1}。使用所给训练数据,学习一个朴素贝叶斯分类器,考虑样本x={0,B},请计算P(y=0)P(x|y=0)的值____(保留2位有效数字)。
第12题
填空题
(1分) 考虑如图数据集,其中x1与x2为特征,其取值集合分别为x1={−1,0,1},x2={B,M,S},y为类别标记,其取值集合为y={0,1}。使用所给训练数据,学习一个朴素贝叶斯分类器,这个分类器会将样本x={0,B}的标记预测为____
第13题
填空题
(1分) 考虑如图数据集,其中x1与x2为特征,其取值集合分别为x1={−1,0,1},x2={B,M,S},y为类别标记,其取值集合为y={0,1}。实际中估计概率值时,常用“拉普拉斯修正”,相关内容请阅读《机器学习》教材第153-154页。使用所给训练数据,使用“拉普拉斯修正”,学习一个朴素贝叶斯分类器,考虑样本x={0,B},请计算P(y=1)P(x|y=1)的值____(保留2位有效数字)。
第14题
单选题
(1分) 以下哪个选项是生成式模型? A 贝叶斯网B 对数几率回归C 决策树D 支持向量机
第15题
单选题
(1分) 最小化分类错误率的贝叶斯最优分类器为:对每个样本选择能使以下哪个选项最大的类别标记? A 后验概率B 类条件概率C 先验D 以上都不是
集成学习-作业
第1题
单选题
(1分) 下列关于集成学习描述错误的是哪个? A 集成学习只能使用若干个相同类型的学习器B 集成学习使用多个学习器解决问题C 集成学习在许多比赛中取得了优异的成绩D 集成学习在英文中是一个外来词
第2题
单选题
(1分) 下列哪些学习器可以作为集成学习中的学习器? A 支持向量机B 决策树C 神经网络D 其他选项都可以
第3题
填空题
(1分) 由若干个相同类型的学习器构成的集成学习被称为____ (同质/异质) 集成学习。
好而不同-作业
第1题
单选题
(1分) 下列哪个关于集成学习的描述是正确的? A 集成学习一定能取得比最好的个体学习器更好的性能B 集成学习的性能可能与个体学习器的平均性能相同C 集成学习的性能一定不差于最差的个体学习器D 集成学习的性能在个体学习器平均性能与个体学习器最佳性能之间
第2题
单选题
(1分) 下列哪个选项不是集成学习在分类任务中取得好性能的要求? A 个体学习器犯错的样本较为分散B 个体学习器具有较好的性能C 存在一个完美的个体学习器D 个体学习器分对的样本不完全一致
第3题
填空题
(1分) 误差-分歧分解表明集成学习中____(3个字) 是关键。
两类常用集成学习方法-作业
第1题
单选题
(1分) 下列哪个算法不是序列化集成学习方法? A XGBoostB Random ForestC AdaBoostD LPBoost
第2题
单选题
(1分) 下列哪个算法不是并行化集成学习方法? A GradientBoostB BaggingC Random ForestD Random Subspace
第3题
填空题
(1分) 集成学习中,后一个个体依赖于前一个个体的方法称为____(3个字) 方法。
Boosting-作业
第1题
单选题
(1分) 下列关于Boosting算法的说法中错误的是哪个? A Boosting算法适用于分类、回归、排序等机器学习问题B 后一个基学习器更关注前一个基学习器学错的样本C Boosting算法的输出是所有基学习器的加权求和D 不基学习器使用的样本权重是相同的
第2题
单选题
(1分) 下列关于Boosting算法中样本权重调整的说法中错误的是哪个? A 所有样本的权重和保持不变B 前一个基学习器分错的样本会获得更大的权重C 只要权重调整的方向正确,Boosting算法的性能就可以获得理论保证D 决策树可以直接处理带权重的样本
第3题
填空题
(1分) Boosting是一种____ (同质/异质) 集成学习方法。
Bagging-作业
第1题
单选题
(1分) 下列关于Bagging算法中采样的描述哪个是错误的? A 可以使用Bootstrap采样B 每个样本在每个基学习器的数据集中只会出现一次C 采样是为了获得不同的基学习器D 不同基学习器的数据从相同分布中采样得到
第2题
单选题
(1分) 下列关于Bagging算法描述中错误的是哪个? A Bagging算法中每个基学习器使用相同的数据集B 分类任务中使用投票法获得输出C 回归任务中使用平均法获得输出D Random Forest是具有代表性的Bagging算法
第3题
填空题
(1分) Bagging算法使用的采样方法是____(有/无) 放回采样。
多样性度量-作业
第1题
单选题
(1分) 下列哪个选项是一种多样性度量? A Q-统计量B 不合度量C 相关系数D 其余选项都是
第2题
单选题
(1分) 下列关于多样性的描述中错误的是哪个? A 多样性度量中可以考虑模型的结构差异B 多样性的定义是集成学习中的圣杯问题C 可以基于两分类器的预测结果列联表定义许多不同的多样性度量D 已经有公认的多样性定义
第3题
填空题
(1分) ____(3个字) 是集成学习的关键。
聚类-作业
第1题
单选题
(1分) 下面哪一项属于聚类的作用? A 寻找数据内在的分布结构B 作为其他学习任务的前驱过程C 帮助寻找潜在的概念或者类别D 以上都是
第2题
单选题
(1分) 下面哪一项机器学习任务不属于无监督学习? A 分类B 聚类C 密度估计D 主成分分析
第3题
填空题
(1分) 聚类问题与下列哪一项监督学习任务更加相近?____(分类/回归)
聚类方法概述-作业
第1题
单选题
(1分) k均值聚类属于下列哪一种聚类算法? A 原型聚类B 密度聚类C 层次聚类D 以上都是
第2题
单选题
(1分) 为了得到树形的聚类结构,应该使用下列哪一种聚类算法? A 原型聚类B 密度聚类C 层次聚类D 以上都是
第3题
填空题
(1分) 聚类好坏____(存在/不存在)绝对标准。
集成学习和聚类-章节测试
第1题
单选题
(1分) 下列关于误差-分歧分解的说法中正确的是哪个? A 这一分解表明特定条件下,集成学习的性能与个体学习器多样性正相关B 这一分解体现了多样性在回归、分类等机器学习任务中的重要性C 这一分解给出了一种可操作的多样性定义D 这一分解中的误差可以使用训练误差进行估计
第2题
单选题
(1分) 下列关于同质集成学习与异质集成学习对比的说法中错误的是哪个? A 异质集成学习能获得更多样的个体B 同质集成学习在实现上更加简单C 同质集成学习能更方便的对比个体的结果D 同质集成学习能获得性能更好的个体
第3题
单选题
(1分) 下列基于两分类器的预测结果连列表定义的表达式中,你认为哪个不适合作为多样性度量? A B C D
第4题
单选题
(1分) 下列关于集成学习的说法中错误的是? A 个体学习器准确率很高后,要增加多样性可以不牺牲准确性B 当基分类器的错误率相互独立时,随着个体数目的增大,集成错误率将指数级下降C 现实任务中,个体学习器很难做到相互独立D 集成学习的核心是如何产生并结合好而不同的个体学习器
第5题
单选题
(1分) 多样性是集成学习的关键,现实任务中往往会在学习过程中引入随机性来增强个体学习器的多样性,你认为下列哪个做法不是合适的增强多样性的方法? A 每个个体学习器使用不同的数据子集B 生成大量随机样本放入到数据集中C 每个个体学习器使用不同的输入属性子集D 当个体学习器有参数可以设置时,对不同个体学习器设置不同的参数
第6题
填空题
(1分) AdaBoost算法是一种常用的Boosting算法,该算法的伪代码如图所示,其中Zt用于确保Dt+1是一个分布。考虑由3个样本组成的训练集,在第1轮中基学习算法将样本1与样本2分类正确,样本3分类错误。则在第2轮中,样本1的权重为____ (保留3位小数)。
第7题
填空题
(1分) 上题第2轮中,样本3的权重为____(保留3位小数)。
第8题
填空题
(1分) 弱学习器指泛化性能略优于随机猜测的学习器,如二分类问题中指精度略高于0.5的分类器。那么在三分类问题中,弱学习器是指精度略高于____ (保留3位小数) 的学习器。
第9题
填空题
(1分) 当样本足够多时,使用3个基学习器的Bagging算法用到的训练数据的比例为____(小数形式并保留3位小数)。
第10题
填空题
(1分) 随机森林是一种典型的Bagging算法。随机森林使用的决策树的每个结点,先从该结点的属性集合中随机选择包含部分属性的属性子集,再从这个子集中选择一个最优的属性用于划分。这样生成的单棵决策树与单棵传统决策树相比,性能往往____ (更高/相同/更低)。
第11题
填空题
(1分) 随机森林与传统决策树构成的森林相比,多样性往往____(更高/相同/更低)。
第12题
单选题
(1分) 当我们想将无标记的数据分成若干簇时,应该选用下列什么类型的算法? A 分类B 回归C 以上都可以D 聚类
第13题
单选题
(1分) 下面哪一项是通过样本分布的紧密程度确定聚类结构的聚类算法? A 原型聚类B 密度聚类C 层次聚类D 以上都是
第14题
填空题
(1分) 下图所示聚类结构____(可以/不可以)通过标准型的k均值聚类算法得到。注:标准型指不使用核方法。
第15题
填空题
(1分) 下图所示聚类结构最可能通过____(原型聚类/密度聚类/层次聚类)得到

点点赞赏,手留余香 给TA打赏

AI创作

评论0

请先

通用学术英语进阶(北京科技大学)中国大学MOOC(慕课)章节测验试题(答案)
通用学术英语进阶(北京科技大学)中国大学MOOC(慕课)章节测验试题(答案)
4分钟前 有人购买 去瞅瞅看
2023年湖北宏泰集团有限公司招聘笔试题库及答案解析
2023年湖北宏泰集团有限公司招聘笔试题库及答案解析
10分钟前 有人购买 去瞅瞅看
在线网课学习课堂《人工智能基础(大连理大 )》单元测试考核答案
在线网课学习课堂《人工智能基础(大连理大 )》单元测试考核答案
7分钟前 有人购买 去瞅瞅看
支持多种货币
支持多种货币付款,满足您的付款需求
7天无忧退换
安心无忧购物,售后有保障
专业客服服务
百名资深客服7*24h在线服务
发货超时赔付
交易成功极速发货,专业水准保证时效性

站点公告

课程作业辅导,有需要加微信
显示验证码

社交账号快速登录