李宏毅老师机器学习选择题解析

本文涉及的产品
公共DNS(含HTTPDNS解析),每月1000万次HTTP解析
全局流量管理 GTM,标准版 1个月
云解析 DNS,旗舰版 1个月
简介: 李宏毅老师机器学习选择题解析

机器学习选择题解析加整理



项目说明,本项目是李宏毅老师在飞桨授权课程的配套问题

课程 传送门

该项目AiStudio项目 传送门


仅供学习参考!

三岁出品必是精品!

整理内容源于李宏毅老师机器学习课程群提问答疑解析内容!


单选题(一)


机器学习训练时,Mini-Batch 的大小优选为2个的幂,如 256 或 512。它背后的原因是什么?

A. Mini-Batch 为偶数的时候,梯度下降算法训练的更快

B. Mini-Batch 设为2的幂,是为了符合CPU、GPU的内存要求,利于并行化处理

C. 不使用偶数时,损失函数是不稳定的

D. 以上说法都不对


答案:B

解析:略


下列说法错误的是?

A. 当目标函数是凸函数时,梯度下降算法的解一般就是全局最优解

B. 进行 PCA 降维时,需要计算协方差矩阵

C. 沿负梯度的方向一定是最优的方向

D. 利用拉格朗日函数能解带约束的优化问题


答案:C

解析:沿负梯度的方向是函数值减少最快的方向但不一定就是最优方向。


关于 L1、L2 正则化下列说法正确的是?

A. L2 正则化能防止过拟合,提升模型的泛化能力,但 L1 做不到这点

B. L2 正则化技术又称为 Lasso Regularization

C. L1 正则化得到的解更加稀疏

D. L2 正则化得到的解更加稀疏


答案:C

解析:L1、L2 正则化都能防止过拟合,提升模型的泛化能力。L1 正则化技术又称为 Lasso Regularization。L1 正则化得到的解更加稀疏。


“增加卷积核的尺寸,一定能提高卷积神经网络的性能。” 这句话是否正确?

A. 正确

B. 错误


答案:B

解析:卷积核的尺寸是超参数,不一定增加其尺寸就一定增加神经网络的性能,需要验证选择最佳尺寸。


有 N 个样本,一般用于训练,一般用于测试。若增大 N 值,则训练误差和测试误差之间的差距会如何变化?

A. 增大

B. 减小


答案:B

解析:增加数据,能够有效减小过拟合,减小训练样本误差和测试样本误差之间的差距。


在回归模型中,下列哪一项在权衡欠拟合(under-fitting)和过拟合(over-fitting)中影响最大?

A. 多项式阶数

B. 更新权重 w 时,使用的是矩阵求逆还是梯度下降

C. 使用常数项


答案:A

解析:选择合适的多项式阶数非常重要。如果阶数过大,模型就会更加复杂,容易发生过拟合;如果阶数较小,模型就会过于简单,容易发生欠拟合。


如果我们说“线性回归”模型完美地拟合了训练样本(训练样本误差为零),则下面哪个说法是正确的?

A.测试样本误差始终为零

B.测试样本误差不可能为零

C.以上答案都不对


答案:C

解析:略


多选题(一)


下列方法中,可以用于特征降维的方法包括?

A. 主成分分析 PCA

B. 线性判别分析 LDA

C. AutoEncoder

D. 矩阵奇异值分解 SVD

E. 最小二乘法 LeastSquares


答案:ABCD

解析:主成分分析 PCA 、线性判别分析 LDA 、AutoEncoder、矩阵奇异值分解 SVD 都是用于特征降维的方法。最小二乘法是解决线性回归问题的算法,但是并没有进行降维。


下列关于极大似然估计(Maximum Likelihood Estimate,MLE),说法正确的是?

A. MLE 可能并不存在

B. MLE 总是存在

C. 如果 MLE 存在,那么它的解可能不是唯一的

D. 如果 MLE 存在,那么它的解一定是唯一的

答案:AC

解析:如果极大似然函数 L(θ) 在极大值处不连续,一阶导数不存在,则 MLE 不存在;另一种情况是 MLE 并不唯一,极大值对应两个θ。


下列哪种方法可以用来减小过拟合?

A. 更多的训练数据

B. L1 正则化

C. L2 正则化

D. 减小模型的复杂度


答案:ABCD

解析:略


单选题(二)


关于循环神经网络(RNN)描述正确的是

A.可以用于处理序列数据

B.不能处理可变长序列数据

C.不同于卷积神经网络,RNN的参数不能共享

D.隐藏层上面的unit彼此没有关联


答案:A

解析:RNN可以设置单独的句子长度参数,也能参数共享,隐藏层的神经元也是彼此作用的


下面梯度下降说法错误的是?

A.随机梯度下降是梯度下降中常用的一种

B.梯度下降包括随机梯度下降和批量梯度下降

C.梯度下降算法速度快且可靠

D.随机梯度下降是深度学习算法当中常用的优化算法之一


答案:C

解析:梯度下降一般只全量更新,效率低,所以随机梯度相比梯度下降,每次只选择部分样本做更新,效率更高,速度更快


下面关于无监督学习描述正确的是

A.无监督算法只处理“特征”,不处理“标签”

B.降维算法不属于无监督学习

C.K-meas算法和SVM算法都属于无监督学习

D.以上都不对


答案:A

解析:SVM属于监督学习算法,降维是非监督


"在一个神经网络里,知道每一个神经元的权重和偏差是最重要的一步,如果以某种方法知道了神经网络准确的权重和偏差,你就可以近似任何函数,实现这个最佳的方法是什么?

A.随机赋值,祈祷它们是正确的

B.搜索所有权重的偏差的组合,直到得到最佳值

C.赋予一个初始值,通过检查跟最佳值的差值,然后迭代更新权重

D.以上都不是


答案:C

解析:这是神经网络算法的原理


关于神经网络与深度学习的关系表述不正确的是?

A.深度学习的概念源于人工神经网络的研究

B.含有多个隐层的神经网络算法就是一种深度学习算法

C.单层神经网络也是深度学习的一种

D.卷积神经网络属于深度学习的一种


答案:C

解析:深度学习一般至少包含输入层,隐藏层,输出层,不是单层。


以下关于卷积神经网络,说法正确的是?

A.卷积神经网络只能有一个卷积核

B.卷积神经网络可以有多个卷积核,但是必须同大小

C.卷积神经网络可以有多个卷积核,可以不同大小

D.卷积神经网络不能使用在文本这种序列数据中


答案:C

解析:可以多个卷积核;大小也可以在不同的层,设置不同的值;在NLP领域也可以使用CNN做特征提取


以下关于逻辑回归的说法不正确的是?

A.逻辑回归必须对缺失值做预处理

B.逻辑回归要求自变量和目标变量是线性关系

C.逻辑回归比决策树,更容易过度拟合

D.逻辑回归只能做2值分类,不能直接做多值分类


答案:C

解析:决策树是更容易过拟合的


多选题(二)

训练误差会降低模型的准确率,产生欠拟合,此时如何提升模拟拟合度?

A.增加数据量

B.特征工程

C.减少正则化参数

D.提高模型复杂度


答案:B、C、D

解析:训练误差来自模型算法本身,和数据量大小无关


对于PCA说法正确的是?

A.我们必须在使用PCA前规范化数据

B.我们应该选择使得模型有最大variance的主成分

C.我们应该选择使得模型有最小variance的主成分

D.我们可以使用PCA在低维度上做数据可视化


答案:A、B、D

解析:主成分是能对数据产生巨大影响的,因此产生巨大影响的那么对于方差的影响肯定也很大,所以C不对


有关集成学习下列说法正确的是?

A.基本模型应尽量来自于同一算法,通过改变训练数据和参数,得到不同的基本模型

B.通常来讲,基本模型之间相关性应该低一些

C.集成的基本模型的数量越多,集成模型的效果就越好

D.bagging boosting 时常用的集成学习的方法


答案:B、D

解析:集成算法可以集成不同算法模型,这也正式集成算法有效的原因;基本模型越多,也可能导致过拟合,在模型选择上,应保证效果好的情况下再考虑集成


传说中的飞桨社区最菜代码人,让我们一起努力!

记住:三岁出品必是精品 (不要脸系列



目录
相关文章
|
3月前
|
机器学习/深度学习 数据采集 算法
R语言中的机器学习库:caret与mlr的深度解析
【9月更文挑战第2天】Caret和mlr是R语言中两个非常重要的机器学习库,它们在数据预处理、模型构建、调优和评估等方面提供了丰富的功能。Caret以其易用性和集成性著称,适合初学者和快速原型开发;而mlr则以其全面性和可扩展性见长,适合处理复杂的机器学习项目。在实际应用中,用户可以根据具体需求和项目特点选择合适的库进行开发。无论是学术研究、商业智能还是教育场景,这两个库都能为数据科学家和机器学习爱好者提供强大的支持。
|
1天前
|
机器学习/深度学习 人工智能 算法
机器学习与深度学习:差异解析
机器学习与深度学习作为两大核心技术,各自拥有独特的魅力和应用价值。尽管它们紧密相连,但两者之间存在着显著的区别。本文将从定义、技术、数据需求、应用领域、模型复杂度以及计算资源等多个维度,对机器学习与深度学习进行深入对比,帮助您更好地理解它们之间的差异。
|
2月前
|
机器学习/深度学习 自然语言处理 JavaScript
信息论、机器学习的核心概念:熵、KL散度、JS散度和Renyi散度的深度解析及应用
在信息论、机器学习和统计学领域中,KL散度(Kullback-Leibler散度)是量化概率分布差异的关键概念。本文深入探讨了KL散度及其相关概念,包括Jensen-Shannon散度和Renyi散度。KL散度用于衡量两个概率分布之间的差异,而Jensen-Shannon散度则提供了一种对称的度量方式。Renyi散度通过可调参数α,提供了更灵活的散度度量。这些概念不仅在理论研究中至关重要,在实际应用中也广泛用于数据压缩、变分自编码器、强化学习等领域。通过分析电子商务中的数据漂移实例,展示了这些散度指标在捕捉数据分布变化方面的独特优势,为企业提供了数据驱动的决策支持。
120 2
信息论、机器学习的核心概念:熵、KL散度、JS散度和Renyi散度的深度解析及应用
|
2月前
|
机器学习/深度学习 算法 Python
深度解析机器学习中过拟合与欠拟合现象:理解模型偏差背后的原因及其解决方案,附带Python示例代码助你轻松掌握平衡技巧
【10月更文挑战第10天】机器学习模型旨在从数据中学习规律并预测新数据。训练过程中常遇过拟合和欠拟合问题。过拟合指模型在训练集上表现优异但泛化能力差,欠拟合则指模型未能充分学习数据规律,两者均影响模型效果。解决方法包括正则化、增加训练数据和特征选择等。示例代码展示了如何使用Python和Scikit-learn进行线性回归建模,并观察不同情况下的表现。
430 3
|
2月前
|
机器学习/深度学习 人工智能 算法
揭开深度学习与传统机器学习的神秘面纱:从理论差异到实战代码详解两者间的选择与应用策略全面解析
【10月更文挑战第10天】本文探讨了深度学习与传统机器学习的区别,通过图像识别和语音处理等领域的应用案例,展示了深度学习在自动特征学习和处理大规模数据方面的优势。文中还提供了一个Python代码示例,使用TensorFlow构建多层感知器(MLP)并与Scikit-learn中的逻辑回归模型进行对比,进一步说明了两者的不同特点。
91 2
|
3月前
|
机器学习/深度学习 数据采集 存储
一文读懂蒙特卡洛算法:从概率模拟到机器学习模型优化的全方位解析
蒙特卡洛方法起源于1945年科学家斯坦尼斯劳·乌拉姆对纸牌游戏中概率问题的思考,与约翰·冯·诺依曼共同奠定了该方法的理论基础。该方法通过模拟大量随机场景来近似复杂问题的解,因命名灵感源自蒙特卡洛赌场。如今,蒙特卡洛方法广泛应用于机器学习领域,尤其在超参数调优、贝叶斯滤波等方面表现出色。通过随机采样超参数空间,蒙特卡洛方法能够高效地找到优质组合,适用于处理高维度、非线性问题。本文通过实例展示了蒙特卡洛方法在估算圆周率π和优化机器学习模型中的应用,并对比了其与网格搜索方法的性能。
346 1
|
4月前
|
图形学 机器学习/深度学习 人工智能
颠覆传统游戏开发,解锁未来娱乐新纪元:深度解析如何运用Unity引擎结合机器学习技术,打造具备自我进化能力的智能游戏角色,彻底改变你的游戏体验——从基础设置到高级应用全面指南
【8月更文挑战第31天】本文探讨了如何在Unity中利用机器学习增强游戏智能。作为领先的游戏开发引擎,Unity通过ML-Agents Toolkit等工具支持AI代理的强化学习训练,使游戏角色能自主学习完成任务。文章提供了一个迷宫游戏示例及其C#脚本,展示了环境观察、动作响应及奖励机制的设计,并介绍了如何设置训练流程。此外,还提到了Unity与其他机器学习框架(如TensorFlow和PyTorch)的集成,以实现更复杂的游戏玩法。通过这些技术,游戏的智能化程度得以显著提升,为玩家带来更丰富的体验。
69 1
|
21天前
|
机器学习/深度学习 算法 数据挖掘
K-means聚类算法是机器学习中常用的一种聚类方法,通过将数据集划分为K个簇来简化数据结构
K-means聚类算法是机器学习中常用的一种聚类方法,通过将数据集划分为K个簇来简化数据结构。本文介绍了K-means算法的基本原理,包括初始化、数据点分配与簇中心更新等步骤,以及如何在Python中实现该算法,最后讨论了其优缺点及应用场景。
65 4
|
17天前
|
机器学习/深度学习 算法 数据挖掘
C语言在机器学习中的应用及其重要性。C语言以其高效性、灵活性和可移植性,适合开发高性能的机器学习算法,尤其在底层算法实现、嵌入式系统和高性能计算中表现突出
本文探讨了C语言在机器学习中的应用及其重要性。C语言以其高效性、灵活性和可移植性,适合开发高性能的机器学习算法,尤其在底层算法实现、嵌入式系统和高性能计算中表现突出。文章还介绍了C语言在知名机器学习库中的作用,以及与Python等语言结合使用的案例,展望了其未来发展的挑战与机遇。
37 1
|
26天前
|
机器学习/深度学习 自然语言处理 算法
深入理解机器学习算法:从线性回归到神经网络
深入理解机器学习算法:从线性回归到神经网络

推荐镜像

更多