1、A 高维B 中维C 低维D 中高维A 高维|3. 聚类是一种()。 A 有监督学习B 无监督学习C 强化学习D 半监督学习B 无监督学习|4. 数据库中相关联的两张表都存储了用户的个人信息,但在用户的个人信息发生改变时只更新了一张表中的数据,这时两张表中就有了不一致的数据,这属于() A 异常值B 缺失值C 不一致的值D 重复值C 不一致的值|5. 某商品的产量(X,件)与单位成本(Y,元/件)之间的回归方程为Y=100-1.2X,这说明()。A 产量每增加一台,单位成本增加100 元B 产量每增加一台,单位成本减少1.2 元C 产量每增加一台,单位成本平均减少1.2 元D 产量每增加一台,单
2、位平均增加100 元C 产量每增加一台,单位成本平均减少1.2 元|6. 在k 近邻法中,选择较小的k 值时,学习的“近似误差”会(),“估计误差”会()。 A 减小,减小B 减小,增大C 增大,减小D 增大,增大B 减小,增大|7. 在回归分析中,自变量为(),因变量为()。A 离散型变量,离散型变量B 连续型变量,离散型变量C 离散型变量,连续型变量D 连续型变量,连续型变量D 连续型变量,连续型变量|8. 手肘法的核心指标是()。A SES B SSEC RMSED MSEB SSE |9. 特征选择的四个步骤中不包括() A 子集产生B 子集评估C 子集搜索D 子集验证C 子集搜索|1
3、0. 一元线性回归中,真实值与预测值的差称为样本的()。A 误差B 方差C 测差D 残差D 残差|11. K-means聚类适用的数据类型是()。 A 数值型数据B 字符型数据C 语音数据D 所有数据A 数值型数据|12. 以下哪些不是缺失值的影响()A 数据建模将丢失大量有用信息B 数据建模的不确定性更加显著C 对整体总是不产生什么作用D 包含空值的数据可能会使建模过程陷入混乱,导致异常的输出C 对整体总是不产生什么作用|13. 下列两个变量之间的关系中,哪个是函数关系()。A 人的性别和他的身高B 人的工资与年龄C 正方形的面积和边长D 温度与湿度C 正方形的面积和边长|14. 考虑下面的
4、频繁3-项集的集合:1,2,3,1,2,4,1,2,5,1,3,4,1,3,5,2,3,4,2,3,5,3,4,5假 定数据集中只有5 个项,采用合并策略,由候选产生过程得到4-项集不包含()A 1,2,3,4B 1,2,3,5C 1,2,4,5D 1,3,4,5C 1,2,4,5 |15. 单层感知机模型属于()模型。A 二分类的线性分类模型B 二分类的非线性分类模型C 多分类的线性分类模型D 多分类的非线性分类模型A 二分类的线性分类模型|16. 系统日志收集的基本特征有()A 高可用性B 高可靠性C 可扩展性D 高效率A 高可用性|B 高可靠性|C 可扩展性|17. 距离度量中的距离可以
5、是() A 欧式距离B 曼哈顿距离C Lp距离D Minkowski距离A 欧式距离|B 曼哈顿距离|C Lp 距离|D Minkowski 距离|18. K-means聚类中K 值选取的方法是()。 A 密度分类法B 手肘法C 大腿法D 随机选取A 密度分类法|B 手肘法|19. 多层感知机的学习过程包含()。A 信号的正向传播B 信号的反向传播C 误差的正向传播D 误差的反向传播A 信号的正向传播|D 误差的反向传播|20. 一元回归参数估计的参数求解方法有()。 A 最大似然法B 距估计法C 最小二乘法D 欧式距离法A 最大似然法|B 距估计法|C 最小二乘法|21. Jaccard系数
6、只关心个体间共同具有的特征是否一致这个问题。T 对F 错T 对|22. 标准BP 算法是在读取全部数据集后,对参数进行统一更新的算法。F 错|23. 使用 SVD 方法进行图像压缩不可以保留图像的重要特征。24. 特征选择和降维都是用于减少特征数量,进而降低模型复杂度、防止过度拟合。25. 一个人的身高与体重之间具有函数关系。26. K 均值(K-Means)算法是密度聚类。27. 数据科学可以回答复杂的问题,发现世界中隐藏的联系并预测和指导未来。28. 选择较小的k 值,相当于用较小的邻域中的训练实例进行预测,学习的“近似误差”会减小,“估计误差”会增大,预测结果会对近邻的点实例点非常敏感。
7、29. 利用K 近邻法进行分类时,使用不同的距离度量所确定的最近邻点都是相同的。30. 对于项集来说,置信度没有意义。31. 每个类的先验概率可以通过属于该类的训练记录所占的比例来估计。32. 当维度增加时,特征空间的体积增加得很快,使得可用的数据变得稠密。33. 利用K 近邻法进行分类时,k 值过小容易发生过拟合现象。34. 聚合方法是自底向上的方法。35. 平均减少的不纯度越大,则特征重要度越高。36. #感知机足以解决任何复杂的分类问题。37. 判定系数取值范围为0,1,判定系数越接近#,表明变量之间的相关性越强。38. 在线性回归分析中,当输入特征的维度从一维增加到d 维(1),则该问题为#问题。39. 多元线性回归中,在有统计学意义的前提下,标准化偏回归系数的绝对值越大,说明相应的自变量对y 的作用#。越大40. 在k 近邻法中,通常采用#来选取最优的k 值。交叉验证法41. 单层感知机和多层感知机分别解决的是哪类问题?42. 为什么某些属性可能会降低朴素贝叶斯分类器的性能?
copyright@ 2008-2022 冰豆网网站版权所有
经营许可证编号:鄂ICP备2022015515号-1