第 1 题
以下对于梯度下降法中学习率 lr 的阐述,正确的是()。
A lr 小,收敛速度较快 B lr 大,收敛速度较慢
C lr 小,收敛速度较慢且较不易收敛
D lr 大,收敛速度较快但可能导致不收敛
第 2 题
梯度下降法求函数极值算法步骤正确的是()。
(1)给定初始点 x0、阈值和学习率
(2)计算函数在该点的导数
(3)如果插值小于阈值则找到极值点,否则重复前 3 步
(4)根据梯度下降更新公式得到下一个x 点
(5)计算更新前后两点函数值的差值 A (1)(2)(4)(3)(5)
B (2)(1)(5)(3)(4) C (1)(2)(4)(5)(3) D (1)(2)(5)(4)(3)
第 3 题
使用梯度下降法求 y=(x-2.5)^2-1 的极值点时,Result too large 报错的主要原 因是()。
A 初始化点没选好 B 学习率过大
C 迭代次数过小
D 梯度下降法不适用于求该类问题极值点
第 4 题
下列关于 python 中 plot 函数包叙述正确的是()。
A 用于对函数自动求导
B 用于绘制函数曲线图像 C 用于计算复杂函数解
D 用于求导数
第 5 题
下列对最小二乘法和梯度下降法的叙述正确的是()。
A 当特征变量小于 10 的四次方时,使用梯度下降法稳妥
B 对于更复杂的学习算法或更庞大的训练数据集,用最小二乘法较好 C 从计算的角度出发,梯度下降法比最小二乘法求解难度更大
D 上述无正确答案:
第 6 题
当训练样本数量趋向于无穷大时,在该数据集上训练的模型变化趋势,对于其描 述正确的是()。
A 偏差(bias)变小 B 偏差变大
C 偏差不变
D 不变
第 7 题
以下哪种方法不能防止过拟合? () A 交叉验证
B 低维嵌入
C 剪枝
D 集成学习
第 8 题
非线性机器学习算法有以下什么特性?() A 针对难以用准则来描述的复杂模型
B 能够达到更深层次的抽象
C 能够进行广泛使用的分类算法
D 以上都是
第 9 题
下列两个变量之间的关系,哪个是函数关系?()。
A 儿子的身高与父亲的身高 B 正方形的边长与面积
C 人的工作环境与健康状况
D 学生的性别与数学成绩
第 10 题
在线性回归方程 y=a+bx 中,回归系数 b 表示()。
A x 变动一个单位时,y 的实际变动量 B y 变动一个单位时,x 的实际变动量
C 当 x=0 时,y 的平均值
D x 变动一个单位时,y 的平均变动量
多次运行,随机化初始点是对存在局部最优点的函数求解的一种方案。
正确答案: √
第 12 题
学习率是梯度下降法中的超参数。
正确答案: √
第 13 题
理想情况下,梯度下降法与最小二乘法求解结果十分接近。
正确答案: √
第 14 题
梯度下降在深度神经网络中被广泛使用。
正确答案: √
第 15 题
最小二乘法仅当 X^TX 可逆时才可解。
正确答案: √
第 16 题
什么是梯度下降的步长? A 参数的变化量
B 目标函数的变化量
C 迭代次数
D 学习速率
第 17 题
如何确定梯度下降中的步长 A 通过试错方法
B 使用启发式算法
C 参考经验值
D 使用线性回归得到最优值
第 18 题
梯度下降中如何避免优化过程中的局部最优 A 增加迭代次数
B 使用随机梯度下降
C 增加学习速率
D 使用动量梯度下降
第 19 题
梯度下降中如何有效地捕捉到目标函数的全局最优? A 调整学习速率
B 增加模型复杂度
C 使用梯度下降的变种算法
D 增加训练样本量
第 20 题
什么是梯度下降的收敛性?
A 算法是否能够找到全局最优解 B 算法是否能够收敛到最优解
C 算法如何快速收敛
D 算法的迭代次数
第 21 题
如何判断梯度下降的算法选择是否收敛? A 通过可视化结果
B 通过调整步长
C 通过迭代执行时间判断
D 通过目标函数值的变化判断
第 22 题
下列______方法不适用于大规模数据集 A 随机梯度下降
B 小批量梯度下降
C 批量梯度下降
D 小批量随机梯度下降
第 23 题
下列关于小批量随机梯度下降算法,说法错误的是______ A 每次迭代使用一个小批量样本训练模型
B 每次迭代所使用的训练样本数不固定,与整个训练集的样本数量有关
C 训练大规模数据时,可以减少训练时间
D 能够实现并行运算
第 24 题
假设有 3000 条样本,使用小批量梯度下降法分 10 批进行训练,下列说法错误的 是______。
A 每轮训练 10 个小批量
B 每个批的批量大小为 300
C 每轮训练的样本总数为 3000 条
D 一共需要训练 10 轮
关于梯度下降法中学习率的说法,错误的是 A 学习率设置过小,收敛速度会非常慢
B 学习率设置过大可能无法收敛
C 学习率在训练过程中必须是一个固定不变的数
D 为了兼顾模型的收敛速度和精度,在训练过程中可以动态调整学习率
第 26 题
下列 算法中,学习率随着迭代次数的增加而单调减小
A AdaGrad B RMSprop C AdaDelta D Adam
第 27 题
小批量样本的选择、批量大小和学习率都会影响小批量梯度下降法的效率。
正确答案: √
第 28 题
以下哪种策略不能( )防止过拟合。
A 使用激活函数
B 加大训练数据量
C Dropout 对网络进行裁剪
D 调整合适的学习率
第 29 题
多层神经网络使用梯度下降法,能够保证一定可以达到全局最小值点。
正确答案: X
第 30 题
使用小批量随机梯度下降算法训练网络时,为了尽可能减少样本对训练的影响, 在每轮训练前最好打乱样本顺序,使样本均匀分布。
正确答案: √
第 31 题
使用批量梯度下降法时,无需打乱样本数据。
正确答案: √
第 32 题
在自适应调整学习率算法中,学习率必须是单调递减的。
正确答案: X
第 33 题
使用越先进的梯度下降法优化算法,神经网络训练结果一定越好。
正确答案: X
第 34 题
以下关于梯度下降法的描述,错误的是哪些项?
A 负梯度方向是函数下降最快的方向
B 梯度下降法一定能够在凸优化问题中取得全局极值点
C 梯度下降法不一定能够在凸优化问题中取得全局极值点 D 负梯度方向是函数上升最快的方向
正确答案: BD 第 35 题
下面有关最小二乘法说法错误的是 A 最小二乘法是一种数学优化技术
B 最小二乘法中的最优直线是能够使得实际观测值 y 与回归值 y’之差的绝对值 (误差)之和达到最小。
C 遥感图像的多项式纠正过程中,求解的是 x, y 组成二维空间的最优平面,只需 要满足 y 的误差平方和 Q 达到最小值。
D 最小二乘法中最优解需要满足的条件是误差平方和 Q 达到最小值。
第 1 题
下列对回归问题和分类问题叙述正确的是()。
A 分类问题旨在实现对连续值的预测,例如股价的价格、房价等
B 对下午四点共享单车租用量高、中、低的预测问题属于回归问题 C 对下午四点共享单车租用量值的预测问题属于回归问题
第 2 题
下列对 python 函数叙述正确的是()。
A reshape 用于对已定义函数重新定义 B reshape 用于重新初始化
C reshape 用于将矩阵变为特定维度
第 3 题
本章中房价预测问题用了以下哪个数据集?() A 纽约房价数据集
B 北京房价数据集
C 波士顿房价数据集
D 亚特兰大房价数据集
第 4 题
读入数据集时常用的 python 库是()。
A numpy
B pandas
C sklearn D Torch
第 5 题
下列哪项误差用于本章房价预测问题中()。
A MSE loss
B Crossentropy loss C Log loss
D 0-1 loss
第 6 题
下列对于多项式函数叙述正确的是()。
A x^3-2xyz^2+2yz+1 是四元多项式 B 2+x+x^3 是 3 阶多项式
C x+y+z 是 3 阶多项式
第 7 题
下列对 python 函数叙述正确的是()。
A 调用 leastsq 时 args 参数不可省
B np. linspace(0,80,1000) 表示取 0-80 之间 1000 个点
C Subplot(arg1,arg2)中 arg1 表示在水平方向画图的数量,arg2 表示在垂直方 向画图的数量
第 8 题
本章实验中训练集与测试集的划分比为()。
A 3:7
B 5:5
C 7:3
D 8:2
第 9 题
本章麻疹疫苗接种率预测实践中用什么方法一次得到 3 个实验的预测结果? () A 通过 for 循环
B 通过调用 linear regression 库 C 通过调用 make_pipeline 类
第 10 题
本章麻疹疫苗接种率预测实践中,均方误差如何随多项式次数增加变化()。 A 随着多项式次数的增加下降
B 随着多项式次数的增加上升
C 随着多项式次数的增加先上升后下降,次数 m=2 时 MSE 最大
第 11 题
随机变量 X ~ N(1, 2),Y ~ N(3, 5),则 X+Y ~()。
A N(4, 7)
B N(4, √2+ √5)
C N(1 + √3,7)
D 不确定
第 12 题
下列关于线性回归说法错误的是()。
A 在现有模型上,加入新的变量,所得到的 R^2 的值总会增加 B 线性回归的前提假设之一是残差必须服从独立正态分布
C 残差的方差无偏估计是 SSE/(n-p)
D 自变量和残差不一定保持相互独立
第 13 题
已知变量 x 与 y 正相关,且由观测数据算得 x 的样本平均值为 3,y 的样本平均值 为 3. 5,则由该观测数据算得的线性回归方程可能是()。
A y=0. 4x+2. 3 B y=-2x+9. 5
C y=-0. 3x+4. 4 D y=2x-2. 4
第 14 题
在两个变量的回归分析中,作散点图是为了()。
A 根据经验选定回归方程的类型 B 估计回归方程的参数
C 直接求出回归直线方程
D 直接求出回归方程
第 15 题
以下哪些函数是凸函数? () A f(x) = x
B f(x) = x^3
C f(x) = x^4
D f(x) = x^3+x^4 正确答案: AC
第 16 题
在 K 近邻算法应用于丁香花数据集的实验中,以下哪一种花的特征分布与其他几
种有明显区分度()。
A
B
C
D
willow
syringa
sunflower daphne
第 17 题
下面哪一项不属于监督学习任务 A 聚类
B 回归
C 分类
D 降维
第 18 题
哪种方法能建模输入变量和输出变量之间映射的函数 A 线性分类
B 线性回归
C 聚类
D 主成分分析
第 19 题
使用误差的平方和表示样本点的误差是哪种损失函数? A KL 散度损失
B 交叉熵损失函数 C 平方损失函数
D L1 损失函数
第 20 题
使用哪个 python 库可以绘制散点图 A matplotlib
B torch C math D numpy
第 21 题
如果想指定画布的大小,需要调用对应包的哪个函数 A figsize
B scattar
C set_title
D plot
第 22 题
sklearn 中哪个模型时线性回归模型 A discriminant_analysis
B svm
C decomposition D linear_model
第 23 题
根据历史数据,预测 5 点中共享单车的租车量,是哪种问题? A 分类问题
B 回归问题
C 聚类问题
D 降维问题
第 24 题
根据历史数据,预测 5 点中共享单车的租车量是高、中还是低,属于哪一类问题? A 分类问题
B 回归问题
C 聚类问题
D 降维问题
第 25 题
最小二乘法需要求解损失函数的一阶偏导数并找到导数为 0 的点
正确答案: √
第 26 题
回归是一种监督学习方法
正确答案: √
第 27 题
训练模型的过程实质上是求解参数的过程
正确答案: √
第 28 题
回归问题旨在对离散值进行预测
正确答案: X
第 29 题
一元线性回归是将 1 个自变量进行线性拟合的过程
正确答案: √
第 30 题
sklearn 是一个涵盖了很多主流机器学习算法的 python 库
正确答案: √
第 31 题
最小二乘法是线性回归模型参数的一种求解方法
正确答案: √
第 32 题
在波士顿房价预测例子中,回归模型不会直接输出房价预测的结果,需要用额外 的推导公式进行计算
正确答案: X
第 33 题
在波士顿房价预测例子中,使用的特征越多,模型输出的效果越好
正确答案: X
第 34 题
平方误差(MSE)通常会作为回归任务的评价指标
正确答案: X
第 35 题
多项式只能由变量和常量的有限次加减法得到,不能使用乘除法
正确答案: X
3.3 习题
第 1 题
下列关于聚类和分类的说法中,错误的是()。
A 聚类是一种无监督学习,在聚类中没有表示数据类别的分类或者分组信息 B 分类需要从训练集中进行学习,从而具备对未知数据的分类能力
C 聚类使同一类对象的相似度尽可能大;不同类对象之间的相似度尽可能小
D 分类是一种无监督学习
第 2 题
下列属于聚类算法的方法包括()。
(1)划分方法
(2)层次方法
(3)基于密度方法
(4)基于网格方法
(5)基于模型方法
A (1)(2)(4)(5)
B (1)(3)
C (1)(5)
D (1)(2)(3)(4)(5)
第 3 题
划分方法包括的典型方法有()。
(1)K-means 及其变种
(2)K-中心点
(3)CLARA
(4)CLARANS
A (1)(2)
B (1)(2)(3)
C (1)(2)(3)(4) D (2)(3)(4)
第 4 题
K-means 的算法步骤正确的是()。
输入:n 个对象的数据集 D,簇数目 k
输出:k 个簇
(1)将每个对象分配到中心与其最近的簇
(2)从 D 中随机选择 k 个对象作为初始簇中心
(3)重新计算簇的均值,使用新的均值作为每个簇的中心
(4)重复迭代,直到所有簇中的对象不再变换 A (1)(2)(3)(4)
B (2)(1)(3)(4)
C (3)(1)(2)(4)
D (3)(2)(1)(4)
第 5 题
下列关于 K-means 算法叙述有误的是()。
A 算法可能终止于局部最优解
B 算法只有当簇均值可求或者定义可求时才能使用
C 簇的数目 k 必须事先给定
D 算法适合发现非凸形状的簇,或者大小差别很大的簇
第 6 题
对于 DBSCAN,下列说法错误的是()。
A 计算复杂度为 O(n^2)
B 使用空间索引的数据库计算复杂度降低为 O(nlogn)
C 对参数较不敏感
D 真实的高维数据具有非常倾斜的分布,全局密度参数不能刻画其内在的聚类结 构
第 7 题
下列关于 DBSCAN 定义叙述错误的是()。
A 密度可达是直接密度可达的传递闭包,是对称的,核心对象之间互相密度可达 B 密度相连是一种对称的关系
C 基于密度的簇,是基于密度可达性的最大的密度相连对象的集合,不包含在任 何簇中的对象被认为是噪声
第 8 题
下列关于网格的方法中叙述错误的是()。
A 采用一个多分辨率的网格数据结构,将空间量化为有限数目的单元,这些单元 形成了网格结构,所有的聚类操作都在网格上进行
B 直接聚类的对象是数据对象,而不是空间
C 处理速度快
D 经典方法包括 STING, WaveCluster
第 9 题
下列关于基于模型的方法叙述错误的是()。
A 假设数据是根据潜在的概率分布生成的
B 基于模型的方法试图找到其背后的模型,并使用其概率分布进行聚类
C 经典方法包含:期望最大化方法、概念聚类、基于神经网络
D 上述选项无误
第 10 题
使用 k-means 算法对红酒数据集进行聚类的实践中,与事实不符的是()。 A 不提供红酒的标签,需要根据 13 个特征对红酒进行聚类
B 数据集通过 sklearn.datasets 的 load_wine()函数加载
C 自实现的 Kmeans 模型与调用 sklearn 包的 kmeans 模型的准确度相等
D Kmeans 算法对该数据集划分效果较好
第 11 题
通过监督学习进行二分类模型训练过程中,可能会遇到正负样本数量不平衡的情 况(比如正样本有 50 万但是负样本有 100 万), 以下哪种方法是不恰当的处理? ()
A 将所有数据加入训练集,充分利用全部数据 B 从 100 万负样本中随机抽取 50 万
C 正样本的权重设置为 2,负样本权重设置为 1
D 复制两份正样本参与到训练中
第 12 题
假如你使用 EM 算 法对 一个 有潜变量 的模 型进 行 最 大似 然估计 (Maximum likelihood estimate)。这时候要求你将算法进行修改,使得其能找到最大后验 分布(Maximum a Posteriori estimation, MAP),你需要修改算法的哪个步骤? ()
A Expection
B Maxmization C 不需要修改 D 都需要修改
第 13 题
EM 算法是()。
A 有监督 B 无监督
第 14 题
关于数据预处理对聚类分析的影响的错误说法是()。 A 可能改变数据点之间的位置关系
B 可能改变簇的个数
C 有助于提升聚类质量 D 可能产生不确定影响
第 15 题
影响基本 K-均值算法的主要因素有()。
A 样本输入顺序
B 模式相似性测度
C 聚类准则
D 初始类中心的选取 正确答案: ABD
第 16 题
下列机器学习常用算法中哪个是聚类算法而不属于分类算法 A K-means
B 最小距离分类器
C KNN(K 近邻)
D 逻辑回归
第 17 题
在 EM 算法中,E 代表期望,M 代表 A 均值
B 最大化
C 最小化
D 均方误差
监督学习的训练集是带有标签的数据
正确答案: √
第 19 题
以下哪个方法可以确定 K-means 算法已经收敛? A 划分不再改变
B 聚类中心不再改变
C 以上两种方法均可
D 以上两种方法均不可
第 20 题
以下哪些选项是 K-means 聚类面临的问题? A 难以选择合适的 K 值
B 易陷入局部最优解
C 不适用于非凸面形状的簇或大小差别较大的簇
D 以上三种都是
第 21 题
DBSCAN 算法的优点是 A 耐噪声能力强
B 能够处理任意形状与大小的簇
C 以上两种都是
D 以上两种都不是
第 22 题
下列那种点不是 DBSCAN 算法中的点的类别? A 核心点
B 离群点
C 边界点
D 噪声点
第 23 题
在选择 DBSCAN 的参数时,点到它的 K 个最近邻的距离中的 K,被选作为哪一个参 数?
A MinPts B Eps
C 边界
D 中心
当采用 K-means 的方法选择 DBSCAN 的 Eps 和 MinPts 参数时,如果设置的 K 的值 太大,则小族(尺寸小于 K 的族)可能会被标记为
A 噪声
B 边界簇 C 核心簇 D 中心
第 25 题
DBSCAN 难以处理高维数据,其主要原因是 A 簇的大小未知
B 噪声点过多
C 数据的形状复杂
D 开销过大
第 26 题
对于 DBSCAN 算法,在参数 Eps 固定,MinPts 取值较大时,会导致 A 能很好的区分各类簇
B 低密度的点的聚集区划为簇,其余的划为噪声
C 只有高密度的点的聚集区划为簇,其余划为噪声 D 无显著影响
第 27 题
DBSCAN 的参数 Eps 固定时,MinPts 的值越大越好。
正确答案: X
第 28 题
DBSCAN 会把所有点划分到各自的族中。
正确答案: X
第 29 题
在所有核心点的 Eps 半径邻域内的点数都不少于 MinPts 值。
正确答案: √
第 30 题
DBSCAN 的空间复杂度始终都是 O(n)。
正确答案: √
第 31 题
以下哪个聚类算法不属于基于网格的聚类算法 A BIRCH
B WaveCluster C STING
D CLIQUE
第 32 题
基于网格的聚类算法执行效率较高,且可以较好地处理不规则分布的数据
正确答案: X
第 33 题
层次聚类方法会将被聚类的对象凝聚或分类为一颗聚类树
正确答案: √
第 34 题
聚类分析可以看作是一种非监督的分类
正确答案: √
第 35 题
如果有 n 个对象,DBSCAN 算法在最差情况下的时间复杂度是?
A O(m^2)
B O(m)
C O(mlogm)
D O(logm)
4.4 习题
第 1 题
下列关于决策树算法,错误的描述是()。
A ID3 算法使用信息增益方法作为属性的选择标准,来帮助确定生成每个节点时 所采用的合适属性
B C4.5 决策树生成算法相对于 ID3 的改进是使用信息增益率来选择节点属性
C CART 决策树是一种十分有效的非参数分类和回归方法,通过构建树、修剪树、 评估树来构建一个二叉树
D ID3 算法只适用于离散的描述属性,C4.5 算法只适用于连续的描述属性
第 2 题
下列决策树流程顺序正确的是()。
(1)数据准备:通过数据清洗和数据处理,将数据整理为可以直接应用决策树的 向量
(2)决策分类:根据训练决策树模型,将预测数据进行分类
(3)生成分支:划分成两个或多个节点
(4)寻找最佳特征:遍历每个特征的每一种划分方式,找到最好的划分特征
(5)生成决策树:对分裂后的节点迭代执行,直到每个节点只有一个类别 A (1)(2)(3)(4)(5)
B (1)(4)(3)(5)(2)
C (1)(3)(4)(2)(5)
D (1)(2)(4)(3)(5)
给定 17 个样本类别为颜色,其中有8 红 9 绿,则其信息熵为()。
A 0.995 B 1
C 0.9975 D 0.9875
第 4 题
下面关于 ID3 算法中说法错误的是()。
A ID3 算法要求特征必须离散化
B 信息增益可以用熵,而不是 GINI 系数来计算 C 选取信息增益最大的特征,最为树的根节点 D ID3 算法是一个二叉树模型
第 5 题
决策树进行分类时过拟合的原因有()。
A 训练数据中存在噪音数据,决策树的某些节点有噪音数据作为分割标准,导致 决策树无法代表真实数据
B 训练数据没有包含所有具有代表性的数据,导致某一类数据无法很好的匹配
C 多重比较,需要在每个变量的每一个值中选取一个作为分割的代表,所以选出 一个噪音分割标准的概率很大
D 以上都属于决策树分类时过拟合的原因
第 6 题
对决策树优缺点叙述有误的是()。
A 决策树能同时处理数据型和常规型属性 B 可以处理不相关特征数据
C 决策树只需要一次构建,反复使用,每一次预测的最大计算次数不超过决策树 的深度
D 决策树不易出现过拟合
第 7 题
下列关于决策树优化的说法中不正确的是()。 A 决策树过拟合往往是节点过多,所以要剪枝
B 前置裁剪在构建决策树的国成时,提前停止,切分节点的条件设置的很苛刻
C 后置裁剪通过级小化决策树整体的损失函数或代价函数来实现
D 前置裁剪得到的决策树可以达到最优,获得较好的结果
A
B
C
D
E
第 9 题
通常来说,哪个模型被认为更易于解释()。
A SVM
B Logistic Regression
C Decision Tree
D K-nearest Neighbor
第 10 题
在构建决策树时,需要计算每个用来划分数据特征的得分,选择分数最高的特征, 以下可以作为得分的是()。
A 熵
B 基尼系数 C 训练误差 D 以上都是
第 11 题
决策树学习过程中,哪些情况可能会导致问题数据(特征相同但是标签不同)? ()
A 数据有噪音
B 现有的特征不足以区分或决策
C 数据错误
D 以上都是
第 12 题
在以下哪种情况下,增益比比信息增益更可取()。 A 当类别变量具有非常打的类别数量的时候
B 当类别变量具有非常小的类别数量的时候 C 和类别数量无关
第 13 题
如何为基于树的模型选择最佳超参数?() A 在训练数据上度量 performance
B 在验证数据上度量 performance
C 两个都对
D 两个都不对
第 14 题
决策树能在相对短的时间内对大型数据源做出可行且效果良好的结果。
正确答案: √
第 15 题
决策树对连续性字段比较难预测。
正确答案: √
第 16 题
C4.5 选择属性用的是( )。
A 信息增益率 B 交叉熵
C 信息熵
D 信息增益
第 17 题
ID3 算法的缺点不包括( )。
A 没有考虑缺失值
B 信息增益准则对可取值数目较多的特征有所偏好,类似“编号 ”的特征其信息 增益接近于 1
C ID3 没有剪枝策略,容易过拟合
D 既能用于处理离散分布的特征,也能用于连续分布的特征处理
第 18 题
ID3 和 C4.5 和 CART 都只能用于分类问题,不能用于回归问题。
正确答案: X
第 19 题
ID3 算法的核心思想就是以信息增益来度量特征选择,选择信息增益最大的特征进 行分裂。
正确答案: √
第 20 题
ID3 选择属性用的是( )。
A 信息增益率 B 信息增益
C 信息熵
D 交叉熵
第 21 题
关于 C4.5 算法,错误的是( )。
A C4.5 算法采用基尼系数的大小来度量特征的各个划分点 B C4.5 算法引入悲观剪枝策略进行后剪枝
C C4.5 算法可以处理非离散的数据
D C4.5 算法最大的特点是克服了 ID3 对特征数目的偏重这一缺点
第 22 题
关于 CART 算法,错误的是( )。
A CART 算法既可以处理分类问题,也可以处理回归问题 B 可以处理样本不平衡问题
C CART 算法采用信息增益率的大小来度量特征的各个划分点
D CART 分类树采用基尼系数的大小来度量特征的各个划分点
第 23 题
决策树的生成只考虑局部最优,相对地,决策树的剪枝则考虑全部最优。
正确答案: √
第 24 题
决策树的说法正确的是( )。
A CART 使用的是二叉树
B 其可作为分类算法,也可用于回归模型
C 不能处理连续型特征
D 它易于理解、可解释性强 正确答案: ABD
第 25 题
决策树可能会产生过度匹配的问题
正确答案: √
第 26 题
决策树可以处理连续型数据,不需要将其离散化。
正确答案: √
第 27 题
决策树算法对异常值不敏感。
正确答案: √
第 28 题
决策树算法属于( )学习。
A 监督学习
B 无监督学习 C 半监督学习 D 强化学习
第 29 题
决策树有哪些代表算法 ( )。
A ID3
B C4.5 C CART D CNN
正确答案: ABC 第 30 题
我们想要在大数据集上训练决策树模型,为了使用较少的时间,可以:( )。
A 增大学习率
B 减少树的数量 C 减少树的深度 D 增加树的深度
第 31 题
以下关于决策树算法说法错误的是 ( )。
A C4.5 算法不能用于处理不完整数据
B C4.5 算法选择信息增益率来选择属性
C CART 算法选择基尼系数来选择属性
D ID3 算法选择信息增益最大的特征作为当前决策节点
第 32 题
以下关于决策树特点分析的说法错误的有 ( )。
A 推理过程容易理解,计算简单 B 算法容易造成过拟合
C 算法自动忽略了对模型没有贡献的属性变量
D 算法考虑了数据属性之间的相关性
第 33 题
以下关于决策树原理介绍错误的有 ( )。
A 决策树算法本质上是贪心算法 B 决策树算法属于无监督学习
C 决策树生成过程中需要用到分割法
D 决策树决策过程从根节点开始
第 34 题
以下那种说法是错误的( )。
A 一个系统越是有序,信息熵就越低
B 中国足球队战胜巴西足球队的信息熵要小于中国乒乓球队战胜巴西乒乓球队的 信息熵
C 信息增益 = 信息熵 – 条件熵
D 一个系统越是混乱,随机变量的不确定性就越大,信息熵就越高
第 35 题
在决策树的训练过程中,选择划分特征的准则通常是( )。
A 最大化信息增益 B 最小化基尼指数 C 最小化均方差
D 最小化损失函数
5.2 习题
第 1 题
K 近邻算法中,①计算距离②决策分类③寻找邻居④数据准备,算法的正确流程为 ()。
A ①②③④ B ④③①②
C ④②①③ D ④①③②
第 2 题
下列哪一项不是邻近算法的优点?() A 支持多分类
B 每一个点都进行一次全局运算
C 算法简单易实现
D 对异常噪声容忍度较高
第 3 题
A
B
C
D
第 4 题
在 KNN 算法的输入中,除了训练数据、测试数据、标签之外还必须要输入()。 A 距离度量方式
B 数据集名称 C 数据集大小 D 聚类数 K
第 5 题
在试验中,knn_classify 的返回之中 r 指的是()。 A 聚类数
B 第 K 和 K+1 个训练点的中心到测试点的距离
C 聚类标签
D 准确率
第 6 题
丁香花数据集有几种特征?() A 2
B 3
C 4
D 5
第 7 题
在实验中可用来读取文件的 python 库为()。
A numpy B pyplot C torch D pandas
第 8 题
丁香花特征两两可视化比较时,需要绘制()个子图。 A 5
B 3 C 6 D 10
第 9 题
训练集测试集的比重关系通常是()。 A 训练集大于测试集
B 训练集等于测试集
C 训练集小于测试集
D 三种情况都有可能
第 10 题
随着 K 值由小到大测试,模型的准确率的变化趋势为()。 A 由小到大
B 由大到小
C 先逐渐变小后逐渐变大
D 先逐渐变大后逐渐变小
第 11 题
丁香花数据集的缺点主要体现在()。
A 数据量
B 数据的标签分布 C 数据的平均质量 D 数据的特征分布
第 12 题
在 K 近邻算法应用于丁香花数据集的实验中,以下哪一种花的特征分布与其他几 种有明显区分度()。
A
B
C
D
willow
syringa
sunflower daphne
第 13 题
为什么 K 近邻算法中,当 K 值较大时随着 K 值增大,模型表现会下降()。 A 因为此时模型偏差大,模型欠拟合
B 因为此时模型方差大,模型过拟合
C 因为 K 值越大,模型决策时参考的点越多
D 因为 K 值越大,模型对噪声越敏感
第 14 题
下列哪一项不是丁香花数据集的数据特征()。
A sepal_length B sepal_width C sepal_weight D petal_length
第 15 题
较常用的决策规则包括()。
A 多数表决法
B 加权表决法
C 随机表决法
D 中位数表决法 正确答案: AB
第 16 题
k 近邻算法的基本思想是什么?
A 给定一个训练数据集,对新的输入实例,找到与该实例最相似的 K 个实例,然 后根据这些实例的类别进行投票,多数类别即为预测类别。
B 给定一个训练数据集,对新的输入实例,找到与该实例最远离的 K 个实例,然 后根据这些实例的类别进行投票,少数类别即为预测类别。
C 给定一个训练数据集,对新的输入实例,找到与该实例最相似的 K 个实例,然 后根据这些实例的类别进行加权平均,权重为相似度的倒数。
D 给定一个训练数据集,对新的输入实例,找到与该实例最远离的 K 个实例,然 后根据这些实例的类别进行加权平均,权重为距离的倒数。
第 17 题
k 近邻算法中k 值的选择会影响什么? A 模型的复杂度和泛化能力
B 模型的运行速度和内存消耗
C 模型的稳定性和鲁棒性
D 模型的可解释性和可视化效果
第 18 题
k 近邻算法中距离度量的常用方法是什么? A 余弦相似度
B 欧式距离
C 曼哈顿距离 D 所有以上
第 19 题
k 近邻算法是一种什么类型的机器学习方法? A 监督学习
B 无监督学习 C 半监督学习 D 强化学习
第 20 题
k 近邻算法中,如果 k 值等于训练样本的个数,那么对于任意的输入实例,预测的 结果是什么?
A 训练集中最近的一个实例的类别 B 训练集中最远的一个实例的类别
C 训练集中类别最多的那一类
D 训练集中类别最少的那一类
第 21 题
k 近邻算法中,为了消除不同特征之间量纲和取值范围的影响,通常需要对特征进 行什么操作?
A 归一化 B 标准化
C 正则化
D 归一化和标准化
第 22 题
k 近邻算法中,如果有多个类别的样本数相同,都是最多的,那么对于新的输入实 例,应该如何判断其类别?
A 随机选取一个类别
B 选取距离最近的一个类别 C 选取距离最远的一个类别 D 重新选取一个较小的 k 值
第 23 题
k 近邻算法中,为了提高查找效率,通常使用什么数据结构来存储训练数据集? A 数组
B 链表 C 堆
D 树
第 24 题
k 近邻算法中,如果训练数据集中有很多噪声或异常值,会对预测结果产生什么影 响?
A 没有影响
B 降低预测准确率 C 提高预测准确率 D 降低预测效率
第 25 题
k 近邻算法中,如果使用欧式距离作为距离度量,那么下列哪个点与点(3, 4)的距 离最近?
A (1, 2)
B (4, 5)
C (5, 3)
D (2, 6)
k 近邻算法中,如果使用余弦相似度作为相似度度量,那么下列哪个点与点(3, 4) 的相似度最高?
A (1, 2)
B (5, 3)
C (4, 5)
D (2, 6)
第 27 题
k 近邻算法中,如果使用欧式距离作为距离度量,并且 k=3,那么对于新输入实例 (4, 6),它应该被分类为哪一类?已知训练数据集如下: | x | y | 类别 | |— |—|—-| | 1 | 1 | A |, | 2 | 3 | A |, | 3 | 5 | B |, | 4 | 4 | B |, |
5 | 7 | C |, | 6 | 8 | C | A A
B B
C C
D D
第 28 题
k 近邻算法中,如果两个实例的距离相等,那么在选择最近邻时应该如何处理? A 随机选择一个
B 选择类别较多的一个 C 选择类别较少的一个 D 两个都选择
第 29 题
k 近邻算法中,如果训练数据集中有大量的噪声或异常值,那么对预测结果的影响 是什么?
A 没有影响
B 有利于提高准确率
C 有害于提高准确率和鲁棒性
D 有利于提高鲁棒性
第 30 题
k 近邻算法中,如果训练数据集中有大量的冗余特征或无关特征,那么对预测结果 的影响是什么?
A 没有影响
B 有利于提高准确率 C 有利于提高鲁棒性
D 有害于提高准确率和鲁棒性
第 31 题
k 近邻算法中,如果训练数据集中各个特征的尺度或量纲不一致,那么对预测结果 的影响是什么?
A 没有影响
B 有利于提高准确率
C 有利于提高鲁棒性
D 有害于提高准确率和鲁棒性
第 32 题
KNN 算法中,K 值的选择对分类结果有很大影响。K 值过小会导致( ),K 值过大 会导致( )。 A. 欠拟合,过拟合 B. 过拟合,欠拟合 C. 欠拟合,欠拟合 D. 过 拟合,过拟合
A 欠拟合,过拟合 B 过拟合,欠拟合
C 欠拟合,欠拟合
D 过拟合,过拟合
第 33 题
KNN 算法的核心思想是( )。
A 找到最近的 K 个样本点 B 找到最远的 K 个样本点 C 找到距离最近的样本点 D 找到距离最远的样本点
第 34 题
KNN 算法是一种基于实例的学习方法,它是一种( )算法。
A 分类
B 回归
C 聚类
D 关联
第 35 题
在 k 近邻算法中,以下哪个选项描述了正确的特征选择方法?
A 选择与目标变量相关性最高的特征。
B 选择与目标变量相关性最低的特征。
C 选择与目标变量相关性最高和最低的特征。
D 随机选择一些特征。
6.4 习题
第 1 题
SVM 训练好后,我们可抛弃非支持向量的样本点,仍然可以对新样本进行分类。
正确答案: √
第 2 题
SVM 对来自其他分布的噪声样本鲁棒。
正确答案: X
第 3 题
A
B
C
D
第 4 题
假设有一个数据集,其中 n=10 个特征,m=5000 个示例。
使用梯度下降法训练 logistic 回归分类器后,您会发现它对训练集拟合不足,并 且在训练集或交叉验证集上没有达到预期的性能。以下哪项可能是有希望采取的 步骤? ()
A 减少训练集中的样本数量
B 用其他的优化方法替代梯度下降方法,因为通过梯度下降可能会得到一个局部 最小值
C 增大学习率
D 尝试用一个包含更多隐藏单元的神经网络
第 5 题
SVM 如何解决线性不可分问题? () A 无法解决
B 通过去除部分点使得空间线性可划分 C 通过核函数将特征映射到高维空间
D 添加超参数项
第 6 题
下列关于 SVM 优缺点总结,错误的是()。
A SVM 的最终决策函数只由少数支持向量所确定,计算的复杂性取决于支持向量 的数,而不是样本空间的维数,避免了维数灾难
B SVM 基于结构风险最小化原则,避免了过学习问题,泛化能力强 C 是一个非凸的优化问题,局部最优解不一定是全局最优解
D SVM 算法简单,且具有较好的鲁棒性
第 7 题
下列关于 SVM 的叙述中,有误的一项是()。
A SVM 对大规模训练样本难以实施:由于 SVM 通过二次规划来求解支持向量,涉 及 m 阶矩阵的计算(m 为样本的个数),当 m 数目很大时矩阵存储和计算耗费大量的 机器内存和运算时间
B 解决多分类问题存在一定困难。经典的 SVM 算法只给出了二分类算法,需通过 多个二类 SVM 组合解决
C 对于每个高维空间在此空间的映射 F,SVM 只是将高维空间的复杂性困难转化为 求核函数的困难
D 增删非支持向量样本对 SVM 有一定影响
第 8 题
关于 sklearn 库中的 svm 叙述有误的是()。
A sklearn 包含两个 SVM 的包:SVC 和 LinearSVC
B LinearSVC 有多种惩罚参数和损失函数可供选择。训练集实例数量大时也可以 很好的归一化
C LinearSVC 支持稠密和稀疏输入矩阵
D SVC 训练时间复杂度为 O(nlogn),训练集实例数量大时很难进行归一化
第 9 题
关于 LinearSVC 叙述有误的是()。
A 惩罚参数 C,C 越大对误分类的惩罚越大,测试集准确率高,但是容易过拟合 B Penalty 参数可指定 L1 和 L2 范数用于惩罚
C 参数 Max_iter 为运行的最大迭代次数
D 以上答案无误
第 10 题
SVM 的核函数包含()。
A rbf
B poly
C sigmoid D 以上都是
第 11 题
支持向量机与逻辑回归的数学本质上的区别是什么?() A 损失函数
B 是否有核技巧
C 是否支持多分类
D 其余选项皆错
第 12 题
SVM 为什么会使用替代损失函数(如 hinge 损失,指数损失等)? () A 替代损失函数可以扩大 SVM 的应用场景
B 0/1 损失函数非凸、不连续
C 替代损失函数可以减少过拟合 D 其余选项皆错
第 13 题
如果一个样本空间线性可分,那么,我们能找到()个平面来划分样本。 A 不确定
B 1
C 无数 D K
第 14 题
SVM 算法的最小时间复杂度是 O(n*n),基于这一点,以下哪种规格的数据集并不 适用于该算法? ()
A 大数据集 B 小数据集
C 中数据集
D 不受数据集大小的影响
第 15 题
在 SVM 领域种,margin 的含义是()。
A 盈利率
B 损失误差
C 间隔
D 保证金
第 16 题
SVM 中的泛化误差代表什么?
A 分类超平面与支持向量的距离 B SVM 对新数据的预测准确度
C SVM 中的误差阈值
第 17 题
怎样理解“硬间隔 ”? A SVM 只允许极小误差
B SVM 允许分类时出现一定范围的误差 C 二者都不对
第 18 题
SVM 算法的最小时间复杂度是 O(n²),基于此,以下哪种规格的数据集并不适该 算法?
A 大数据集 B 小数据集
C 中等数据集
D 不受数据集大小影响
第 19 题
SVM 算法的性能取决于:
A 核函数的选择 B 核函数的参数 C 软间隔参数 C D 以上所有
第 20 题
支持向量是最靠近决策表面的数据点
正确答案: √
第 21 题
以下哪种情况会导致 SVM 算法性能下降? A 数据线性可分
B 数据干净、格式整齐
C 数据有噪声,有重复值
第 22 题
假设你选取了高 Gamma 值的径向基核(RBF),这表示:
A 建模时,模型会考虑到离超平面更远的点 B 建模时,模型只考虑离超平面近的点
C 模型不会被数据点与超平面的距离影响
第 23 题
若参数 C(cost parameter)被设为无穷,下面哪种说法是正确的? A 只要最佳分类超平面存在,它就能将所有数据全部正确分类
B 软间隔 SVM 分类器将正确分类数据 C 二者都不对
第 24 题
SVM 中的代价参数 C 表示什么? A 交叉验证的次数
B 用到的核函数
C 在分类准确性和模型复杂度之间的权衡
D 以上都不对
第 25 题
假定有一个数据集 S,但该数据集有很多误差(这意味着不能太过依赖任何特定的 数据点)。若要建立一个 SVM 模型,它的核函数是二次多项式核,同时,该函数使 用变量 C(cost parameter)作为一个参数。若 C 趋于无穷,以下哪种说法正确?
A 数据仍可正确分类 B 数据无法正确分类
C 不确定
D 以上都不对
第 26 题
假定有一个数据集 S,但该数据集有很多误差(这意味着不能太过依赖任何特定的 数据点)。若要建立一个 SVM 模型,它的核函数是二次多项式核,同时,该函数使 用变量 C(cost parameter)作为一个参数。若 C 的值很小,以下哪种说法正确?
A 会发生误分类现象 B 数据将被正确分类
C 不确定
D 以上都不对
第 27 题
若训练时使用了数据集的全部特征,模型在训练集上的准确率为 100%,验证集上 准确率为 70%。出现的问题是?
A 欠拟合 B 过拟合
C 模型很完美
第 28 题
下面哪个是 SVM 在实际生活中的应用? A 文本分类
B 图片分类
C 新闻聚类
D 以上都对
第 29 题
在应用高斯核 SVM 之前,通常都会对数据做正态化(normalization),下面对特 征正态化的说法哪个是正确的?1 对特征做正态化处理后,新的特征将主导输出 结果 2 正态化不适用于类别特征 3 对于高斯核 SVM,正态化总是有用
A 1
B 1 和 2
C 1 和 3
D 2 和 3
第 30 题
下面关于 SVM 中核函数的说法正确的是?1 核函数将低维空间中的数据映射到高 维空间 2 它是一个相似度函数
A 1
B 2
C 1 和 2
D 以上都不对
第 31 题
假定现在有一个四分类问题,你要用 One-vs-all策略训练一个 SVM 的模型。你需 要训练几个 SVM 模型?
A 1
B 2
C 3
D 4
第 32 题
假定现在有一个四分类问题,你要用 One-vs-all策略训练一个 SVM 的模型。假定 数据集中每一类的分布相同,且训练一次 SVM 模型需要 10 秒,若完成上面的任务, 共花费多少秒?
A 20
B 40
C 60
D 80
第 33 题
假定现在有一个二分类问题,你要用 One-vs-all策略训练一个 SVM 的模型。你需
要训练几个 SVM 模型? A 1
B 2
C 3
D 4
第 34 题
假定你使用阶数为 2 的线性核 SVM,将模型应用到实际数据集上后,其训练确率和 测试准确率均为 100%。假定现在增加模型复杂度(增加核函数阶),会发生以下哪 种情况?
A 过拟合 B 欠拟合
C 什么都不会发生,因为模型准确率已经到达极限
D 以上都不对
第 35 题
假定你使用阶数为 2 的线性核 SVM,将模型应用到实际数据集上后,其训练确率和 测试准确率均为 100%。在增加了模型复杂度之后,你发现训练准确率仍是 100%, 原因可能是?1 数据是固定的,但我们在不断拟合更多的多项式或参数,这会导 致算法开始记忆数据中的所有内容 2 由于数据是固定的,SVM 不需要在很大的假 设空间中搜索
A 1
B 2
C 1 和 2
D 二者都不对
7.3 习题
第 1 题
天文数据挖掘对应机器学习中的哪一类问题? () A 分类问题
B 回归问题
第 2 题
实验数据包括索引文件和()文件。
A 波长
B 波段
第 3 题
索引文件对应记录波段文件 id 号和()信息? A 回归
B 分类
第 4 题
数据集中带 rank 的是第()阶段测试集? A 一
B 二
第 5 题
本实验采用哪一种的分类方法? () A SVM
B 集成学习方法 C 神经网络方法
第 6 题
PCA 思想是将 n 维特征映射到 k 维特征上,这里的 n 和k 之间的关系为()。
A n=k B n
C n>k
第 7 题
NMF 方法中对于任意给定的非负矩阵 V,得到两个非负矩阵 W 和 H,满足 V=W*H, 其中 W 矩阵称为()。
A 基矩阵
B 系数矩阵 C 权重矩阵
第 8 题
NMF 中哪个矩阵可以用来代替原始矩阵,从而对原始矩阵进行降维()。 A 基矩阵
B 系数矩阵
第 9 题
python 中 tqdm 包的作用是()。
A 科学计算
B 大数据分析
C 在长循环中进度提示
第 10 题
本章实验具体的实现方法是()。 A LGB
B SVM
C PCA
第 11 题
非负矩阵分解的简称是()。 A NMF
B FCA
C ICA
第 12 题
独立主成分分析的本质是()。 A 线性变换
B 非线性变换
第 13 题
因子分析技术的作用是()。 A 数据增强
B 数据简化
第 14 题
LAMOST 数据集中 unknown 类别表示()。 A 人类未知星体
B 由于光谱质量,未给出确切分类的天体
第 15 题
波段文件中的采样点个数为()。 A 2500
B 2600
C 2700
第 16 题
波段文件中的采样点个数为()。
A 2500
B 2600
C 2700
第 17 题
实验数据包括()文件和()文件 A 索引,波段
B 索引,波长
C 顺序,波长
D 顺序,波段
第 18 题
LAMOST 光谱分类中QSO 表示什么类别? A 恒星
B 星系
C 类星体
D 未知天体
第 19 题
数据集中带 test 的是第()阶段测试集? A 一
B 二
第 20 题
评价函数 marco F1 score 计算 F1 score 的()平均 A 几何
B 加权
C 调和
D 算数
第 21 题
本实验首先要做的工作是 A 特征提取
B 分类
第 22 题
PCA 基于()对数据进行压缩降维、去噪 A 相关矩阵
B 对角矩阵
C 变量协方差矩阵
D 正交矩阵
第 23 题
NMF 方法中对于任意给定的非负矩阵 V,得到两个非负矩阵 W 和 H,满足 V=W*H, 其中 H 矩阵称为()。
A 基矩阵
B 系数矩阵
第 24 题
NMF 方法中的 V 矩阵每一列代表一个() A 观测
B 特征
第 25 题
因子分析通过研究众多变量之间的内部依赖关系,探求观测数据中的基本结构, 并用少数几个()来表示其基本的数据结构
A 假想变量 B 显在变量
第 26 题
独立成分分析把数据或信号分离成()的非高斯信号源的线性组合 A 互相关
B 互信息
C 相关系数 D 统计独立
第 27 题
ICA 又称为() A 主成分分析 B 因子分析
C 盲源分离
D 非线性降维
第 28 题
ICA 观察的随机信号 x 服从模型 x=As,其中 s 为() A 未知源信号
B 未知混合矩阵
第 29 题
ICA 观察的随机信号 x 服从模型 x=As,其中 A 为() A 未知源信号
B 未知混合矩阵
第 30 题
functools 的作用是?() A 函数装饰器
B 高阶函数操作 C 偏函数应用
D 缓存机制
第 31 题
mutiprocessing 包是 python 中的()管理包 A 并行计算
B 进程管理
C 线程管理
D 分布式计算
第 32 题
seaborn 是 python 中的一个()库。
A 数据可视化 B 机器学习
C 数据处理 D 数据科学
第 33 题
NMF 方法中的 V 矩阵每一行代表一个() A 观测
B 特征
第 34 题
PCA 思想是将 n 维特征映射到 k 维特征上,这 k 维特征称为() A 特征向量
B 投影向量 C 降维特征
D 主元
第 35 题
LAMOST 光谱分类中GALAXY 表示什么类别? A 恒星
B 星系
C 类星体
D 未知天体
第 36 题
所有波段文件的波段区间和采样点都() A 相同
B 不同
8.5 习题
第 1 题
以下哪一项不是实验中的道路属性? () A ID
B 长度
C 宽度
D 车流量
第 2 题
本实验采取的模型不包含()。 A CNN
B DNN
C XGB
D LGB
第 3 题
对于数据的预处理不包括()。 A 补充缺失值
B 主成分分析提取
C 改变数据分布
D 删除质量不好的数据
第 4 题
以下不属于实验介绍的缺失值填充方法的一项是()。 A 中值填充
B 差值填充 C 随机填充 D 不填充
第 5 题
以下哪一项不应该被考虑为特征工程中的分类标准?() A 是否是节假日
B 是否是周末
C 是清晨还是傍晚
D 是否是奇数日期
第 6 题
以下属于集成算法的是()。
A DNN B XGB C LSTM D RNN
第 7 题
以下不属于集成算法类别的是()。
A Bagging B Boosting C LSTM
D Stacking
第 8 题
以下哪一项不属于 xgb 模型的参数? ()
A
B
C
D
eta
max_depth momentum objective
第 9 题
DNN 的定义为()。
A 一个输入层,一个或多个隐藏层,多个输出层 B 多个输入层,一个或多个隐藏层,一个输出层
C 一个输入层,一个或多个隐藏层,一个输出层
D 多个输入层,一个或多个隐藏层,多个输出层
第 10 题
本章实验中被用来搭建网络模型的 python 数据包为()。
A
B
C
D
pandas pytorch keras
numpy
第 11 题
在智慧交通实验中,处理无效值的方法是()。
A 设为 NULL B 设为 0
C 直接删除
D 取平均值填充
第 12 题
在智慧交通实验中,取得了最佳表现的模型是()。
A LSTM
B DNN
C seq2seq D xgboost
第 13 题
在智慧交通实验中,构建 DNN 模型时,没有使用以下哪一模块?() A transformer
B relu
C dense
第 14 题
在智慧交通实验中,构建 LSTM 模型时,没有使用以下哪一模块?()
A dense B PCA
C LSTM
第 15 题
在智慧交通实验的数据分析环节中,以下哪一因素对通行时间的影响不大? ()
A 节假日 B 月份
C 时刻
D 是否早高峰
第 16 题
数据集中每条 link 的直接上游由属性()表示。 A link_ID
B in_links
C out_links
第 17 题
link 历史通行时间表中 time_interval 字段的类型为()。 A string
B date
C double
第 18 题
实验中没有用到的模型或方法为()。
A Xgboost B LSTM
C DNN D SVM
第 19 题
数据集中 link_class 属性取值都为 1,此实验中为无用信息。
正确答案: √
第 20 题
实验中 travel_time 分布跨度比较大,采用的处理措施为()。 A 最小-最大规范化
B 零均值归一化 C log1P 变换
D 无需处理
第 21 题
实验中 travel_time_1p 字段与 holiday 字段呈正相关。
正确答案: X
第 22 题
实验中与 travel_time 相关性不大的字段为()。
A day
B hour
C holiday D month
第 23 题
特征工程是将原始数据转化为可由算法中训练与预测所使用的矢量的过程。
正确答案: √
第 24 题
特征工程的预处理过程不包括()。
A 缺失值处理
B 低质量数据删除 C 数据类型变换
D 分布变换
正确答案: ABCD 第 25 题
Xgboost 属于常用集成方法中的()类。
A bagging B stacking C boosting
第 26 题
Xgboost 算法的优点有()。
A 扩展性强 B 支持并行
C 适合工业应用 正确答案: ABC 第 27 题
seq2seq 模型属于 encoder-decoder 结构的一种。
正确答案: √
第 28 题
seq2seq 模型中,将输入序列压缩成指定长度的向量,这个过程称为()。 A 编码
B 解码
C 量化
D 池化
第 29 题
seq2seq 模型中获取语义向量的方法不包括()。 A 将第一个输入的隐状态做变换的到语义向量 B 将最后一个输入的隐状态作为语义向量
C 对最后一个隐状态做变换的到语义向量
D 对输入序列所有因状态做变换的到语义向量
第 30 题
seq2seq 模型中 decoder 负责根据语义向量生成指定的序列,这个过程也称为()。 A 编码
B 解码
C 量化
D 池化
第 31 题
seq2seq 模型的解码过程中语义向量 C(encoder 输出)参与每一个时间步的运算。
正确答案: X
第 32 题
seq2seq 模型可以并行处理多个时间步的输入。
正确答案: X
第 33 题
实验数据中路段(link)属性表没有提供的属性为()。
A link_class B length
C width
D in_links
第 34 题
下列特征中不属于宏观特征的为()。
A 前两小时同样时刻各种路段通行时间
B 天气
C 日期
D 节假日
第 35 题
下列不属于深度模型的是()。
A DNN
B LSTM
C Lightgbm D Seq2Seq
9.11 习题
第 1 题
本实验中数据预处理小节中介绍的内容不包括()。
A 缺失值处理
B 样本不平衡
C 常见分布类型 D 主成分分析
第 2 题
下列哪一项属于 one-hot 编码? () A (0,0,1,1)
B (1,0,0,0)
C (1,0,1,1)
D (0,0,0,0)
第 3 题
以下哪一项不是 LightBGM 的优点?() A 更快的训练速度
B 支持分布式处理 C 更低的内存消耗 D 更大的参数量
第 4 题
对于查准率、查全率、ROC 曲线下面积、准确度,对应顺序正确的是()。 A precision、recall、AUC、accuracy
B accuracy、precision、recall、AUC
C precision、recall、AUC、accuracy
D AUC、recall、precision、accuracy
第 5 题
ROC 曲线接近哪一个点的时候说明模型效果比较好?()
A (0,0)
B (0,1)
C (1,0)
D (1,1)
第 6 题
特征选择的一般流程为()。
A 产生过程、评估过程、验证过程、停止条件
B 评估过程、验证过程、停止条件、产生过程
C 产生过程、评估过程、停止条件、验证过程
D 评估过程、产生过程、停止条件、验证过程
第 7 题
特征选择方法 Filter 的缺点为()。 A 搜索空间庞大,需要启发式策略 B 需要调整结构和参数配置
C 特征之间的组合效应难以挖掘
D 直接面向优化算法
第 8 题
A
B
C
D
第 9 题
在天猫重复购买预测实验中,以下哪一项不是商铺的基本特征?() A 某一用户的浏览次数
B 不同品牌个数 C 不同商品数量 D 活跃天数
第 10 题
在天猫重复购买预测实验中,分类预测效果最好的单模型是()。 A xgb
B lgb
C 随机森林
D KNN
第 11 题
以下哪一项不是使用特征选择技术的原因?() A 简化模型,使之更易于被研究人员或用户理解 B 缩短训练时间
C 改善通用性、降低过拟合(即降低方差)
D 提高模型的性能表现
第 12 题
特征选择技术常用于()的情形。
A 特征数量少,样本数量少 B 特征数量多,样本数量少
C 特征数量少,样本数量多
D 特征数量多,样本数量多
第 13 题
在天猫重复购买预测实验中,特征选择后的特征数量约占选择前的特征数量的比 例为()。
A 0.5 B 0.7 C 0.12 D 0.05
第 14 题
当引入 ID 类型特征时为什么需要降维?() A 参数量增多
B 无用信息增多
C 容易发生过拟合
D 模型不支持多维 ID 类型特征 正确答案: AC
第 15 题
以下属于文本表示模型的一项是()。
A 词袋模型
B N-gram 模型 C 主题模型
D 词嵌入
正确答案: ABCD 第 16 题
数据集包含在“双十一 ”之前和之后几个月中的匿名用户的购物日志? A 1
B 2
C 3
D 6
第 17 题
以下哪个属于本实验的评测指标? A AUC
B ABC
C ARC
D AGC
第 18 题
pandas 如何丢弃缺失值? A dropna
B takena
C havena
D givena
第 19 题
Borderline-SMOTE 是在哪个算法基础上改进的过采样算法? A Dijkstra
B SMOTE
C KMP
D Bellman-ford
第 20 题
线性函数归一化后,数据被映射到什么范围内?
A (-inf,inf) B (-inf,0]
C [0,1]
D [0,inf)
第 21 题
零均值归一化后,数据的标准差是多少? A 114
B 514
C 1919810 D 1
第 22 题
本课程中的逻辑回归模型算法是从哪个包中调用的?
A
B
C
D
os
pathlib sklearn math
本课程中的高斯贝叶斯模型算法是从哪个包中调用的?
A
B
C
D
sklearn os
pathlib math
第 24 题
以下哪个不属于本实验的评测指标? A precision
B AUC
C F1
D BLEU
第 25 题
AUC 指标代表了什么含义? A ROC 曲线下方面积
B 准确率
C 精确度
D 召回率
第 26 题
本实验可以使用什么概率检验方法? A 平方检验
B 卡方检验
C 立方检验
D 卡伦检验
第 27 题
互信息直接用于特征选择属于度量方式吗?可以归一化吗? A 属于;可以
B 不属于;可以
C 不属于;不可以; D 属于;不可以
第 28 题
本实验中处理插值、积分、优化、图像处理、常微分方程数值解求解的包是哪个? A os
B scipy
C pathlib
D math
第 29 题
本实验中用于绘图的包是哪个? A os
B pathlib
C matplotlib D math
第 30 题
本实验如何进行数据内存压缩? A 修改整数与浮点数数据类型 B 使用压缩包
C 使用 winrar
D 压缩成 zip 格式
第 31 题
本实验中可以利用什么方法提取特征? A BF 算法
B Euler 算法 C countvector D tfidf
正确答案: CD 第 32 题
本实验的 boosting 分类预测使用了哪两种 boosting 方法?
A AdaBoosting
B GradientBoosting C KMBoosting
D DinicBoosting 正确答案: AB 第 33 题
本实验中混淆矩阵使用什么模型计算? A 随机湖泊模型
B 随机森林模型
C 随机沼泽模型
D 随即沙漠模型
第 34 题
sklearn 中 RFECV 方法分成哪两个部分? A RFE
B CV C NLP D MM
正确答案: AB 第 35 题
特征选择的关键假设是什么?
A 训练数据包含许多冗余或无关的特征,因而移除这些特征并不会导致丢失信息 B 假设特征选择成立
C 有关键特征
D 有冗余特征
10.15 习题
第 1 题
下面哪一个是淘宝直播商品识别预处理使用的数据集()。
A COCO 数据集 B MPII 数据集 C VOC 数据集
第 2 题
本实验网络架构采用的网络模型是()。
A Faster R-CNN
B YOLO v3
C Cascaded R-CNN
第 3 题
下面哪种两阶段目标检测算法不再使用选择性搜索的方法?() A R-CNN
B Fast R-CNN
C Faster R-CNN
第 4 题
下面哪个组成部分是用来将原始图像转换为特征图?() A Backbone
B Neck
第 5 题
训练时,每一个 epoch 代表的含义是()。
A 训练一个 batch size 大小的数据 B 将所有的输入数据训练一轮
第 6 题
下面哪个 pytorch 工具箱是用来实现对数据预处理?() A Dataset
B DataLoader
C transforms
第 7 题
本章实验中选择的损失函数是()。
A 交叉熵损失 B 三元组损失
C 多相似性损失
D 使用不同的损失函数构成复合损失
第 8 题
在模型融合中,“少数服从多数 ”思想对应的方法是()。 A 投票法
B 均值法 C 串行法
第 9 题
Fast R-CNN 相比于 R-CNN,主要的区别是()。 A 融合了 SPP-net 的特点
B 取消了选择性搜索
C 使用 RPN 网络生成候选框
第 10 题
本章实验最终采用哪种方式对模块进行集成?()。 A shed
B shell 脚本
C integrate
第 11 题
mmdetection 工具箱是基于()的目标检测开源工具箱。 A PyTorch
B TensorFlow
C Keras
第 12 题
pytorch 中提供的数据读取机制是使用 torch.utils.data 中的 Dataset 和()。 A DataLoader
B Transform
C Tensorboard
第 13 题
Transforms.Compose 类的作用是()。
A 组合多个 transforms 函数 B 对输入样本顺序重组
第 14 题
优化器的作用是()。
A 优化网络模型架构
B 计算梯度用于梯度下降
C 定义一种更新模型参数的算法
第 15 题
warmup 学习率是一种针对学习率的优化,该方法对学习率的调整模式为()。 A 先使用较大学习率再采用较小学习率
B 先使用较小学习率再采用较大学习率
第 16 题
在淘宝直播商品识别实验中,共将商品划分为多少类? A 20
B 23
C 25
D 33
第 17 题
在数据集划分时,若数据两较小或算力充足时,可选用那种划分方法? A K 折划分法
B 分层抽样式法 C Domain 划分法 D 传统划分法
第 18 题
以下哪个不是常见的数据增强方法? A 平移
B 翻转
C 剪切
D 缩放
第 19 题
在淘宝直播商品识别实验中,需综合考虑哪些级别的商品识别效果 A 直播片段级
B 像素级
C 视频帧级 D 检测框级
正确答案: ACD 第 20 题
在淘宝直播商品识别实验中,使用哪个指标作为评价指标?
A TPR
B Recall
C Accuracy D F1 Score
第 21 题
在本实验的图像检索网络中,使用哪种主干网络效果最好? A ResNeXt101
B SEResNet101
C ResNet101
D ResNet50
第 22 题
RCNN 网络使用什么分类 A SVM
B Logistic Regression
C 决策树
D 两个 FC 层
第 23 题
与 RCNN 网络相比,Fast RCNN 改进了哪些部分 A 候选框生成方式
B 特征提取方式
C 尺寸归一化方式
D 分类方式
正确答案: BCD 第 24 题
与 Fast RCNN 网络相比,Faster RCNN 改进了哪个部分
A 候选框生成方式 B 特征提取方式
C 尺寸归一化方式 D 分类方式
第 25 题
mmdetection 工具箱可支持哪些计算机视觉任务? A 目标检测
B 图像分类
C 语义分割
D 图像生成
正确答案: ABC 第 26 题
mmdetection 命令中,哪个参数是可选的?
A {CONFIG_FILE}
B {EVAL_METRICS}
C {RESULT_FILE}
D {CHECKPOINT_FILE} 正确答案: BC
第 27 题
NMS 算法的复杂度是多少?
A O(n)
B O(logn)
C O(n^2)
D O(nlogn)
第 28 题
以下哪个选项为 IOU 的计算公式? A (A∩B)/(A∪B)
B (A-B)/(A∪B)
C (A∩B)/(A-B)
D (A∪B)/(A∩B)
第 29 题
在使用 mmcv 基础库的哪个函数前,需要保证 opencv 已经安装? A mmcv.load()
B mmcv.dump()
C mmcv.list_from_file D mmcv.imread()
第 30 题
残差结构的提出,是为了解决以下哪个问题? A 过拟合
B 网络退化 C 欠拟合
D 梯度爆炸
第 31 题
faiss 是基于哪种变成语言编写的? A C
B JAVA
C Python D C++
第 32 题
以下哪种模型融合法,是作用于样本集合上的融合策略 A 投票法
B 均值法 C 串行
D 并行
第 33 题
以下哪个目标检测器未使用 RPN 生成候选框? A Faster RCNN
B Cascade RCNN C Fast RCNN
D Grid RCNN
第 34 题
以下哪种后处理方式,关注单个检测框的定位精度? A NMS
B Soft NMS
C Softer NMS
第 35 题
使用 python 的 argparse 包时,不包括以下哪个步骤 A ArgumentParser()
B add_argument()
C parse_args()
D DEFINE_boolean()
雨课堂学堂在线《机器学习实践(北京理工)》学堂云单元测试考核答案
点点赞赏,手留余香
给TA打赏
随机题搜索:
评论0