游客hju6cyh3nlay4_个人页

个人头像照片 游客hju6cyh3nlay4
个人头像照片
0
130
0

个人介绍

暂无个人介绍

擅长的技术

获得更多能力
通用技术能力:

暂时未有相关通用技术能力~

云产品技术能力:

暂时未有相关云产品技术能力~

阿里云技能认证

详细说明
暂无更多信息

2022年04月

正在加载, 请稍后...
暂无更多信息
  • 回答了问题 2022-04-01

    机器学习法的算法有哪些啊?

    机器学习算法可以分为三类,即监督学习、无监督学习和强化学习。

    踩0 评论0
  • 回答了问题 2022-04-01

    log对数损失函数有什么优点?

    log对数损失函数把乘法变为加法,把除法变为减法,加减比乘除更为简单;

    log对数损失函数满足单调性。

    踩0 评论0
  • 回答了问题 2022-04-01

    平方损失函数有什么优点?

    平方损失函数计算比较容易,友好;

    平方损失函数满足损失函数的要求;

    平方损失函数求导之后变为一次函数利于计算。

    踩0 评论0
  • 回答了问题 2022-04-01

    log对数损失函数是什么啊?

    Logistic回归的损失函数就是对数损失函数,在Logistic回归的推导中,它假设样本服从伯努利分布(伯努利分布亦称“零一分布”、“两点分布”。称随机变量X有伯努利分布, 参数为p(0<p<1),如果它分别以概率p和1-p取1和0为值。EX= p,DX=p(1-p))分布,然后求得满足该分布的似然函数,接着用对数求极值。Logistic回归并没有求对数似然函数的最大值,而是把极大化当做一个思想,进而推导它的风险函数为最小化的负的似然函数。

    踩0 评论0
  • 回答了问题 2022-04-01

    降低欠拟合风险的方法有什么?

    1.添加新特征。当特征不足或者现有特征与样本标签的相关性不强时,模型容易出现欠拟合。通过挖掘“上下文特征”“ID类特征”“组合特征”等新的特征,往往能够取得更好的效果。在深度学习潮流中,有很多模型可以帮助完成特征工程,如因子分解机、梯度提升决策树、Deep-crossing等都可以成为丰富特征的方法。

    2.增加模型复杂度。简单模型的学习能力较差,通过增加模型的复杂度可以使模型拥有更强的拟合能力。例如,在线性模型中添加高次项,在神经网络模型中增加网络层数或神经元个数等。

    3.减小正则化系数。正则化是用来防止过拟合的,但当模型出现欠拟合现象时,则需要有针对性地减小正则化系数。

    踩0 评论0
  • 回答了问题 2022-04-01

    降低过拟合风险的方法有什么?

    1.从数据入手,获得更多的训练数据。使用更多的训练数据是解决过拟合问题最有效的手段,因为更多的样本能够让模型学习到更多更有效的特征,减小噪声的影响。当然,直接增加实验数据一般是很困难的,但是可以通过一定的规则来扩充训练数据。比如,在图像分类的问题上,可以通过图像的平移、旋转、缩放等方式扩充数据;更进一步地,可以使用生成式对抗网络来合成大量的新训练数据。

    2.降低模型复杂度。在数据较少时,模型过于复杂是产生过拟合的主要因素,适当降低模型复杂度可以避免模型拟合过多的采样噪声。例如,在神经网络模型中减少网络层数、神经元个数等;在决策树模型中降低树的深度、进行剪枝等。

    3.正则化方法。给模型的参数加上一定的正则约束,比如将权值的大小加入到损失函数中。以L2正则化为例:在优化原来的目标函数C0的同时,也能避免权值过大带来的过拟合风险。

    4.集成学习方法。集成学习是把多个模型集成在一起,来降低单一模型的过拟合风险,如Bagging方法。

    踩0 评论0
  • 回答了问题 2022-04-01

    Frobenius 范数是什么啊?

    Frobenius 范数(F-范数) 一种矩阵范数,即矩阵中每项数的平方和的开方值。 这个范数是针对矩阵而言的,具体定义可以类比向量的L2范数。

    踩0 评论0
  • 回答了问题 2022-04-01

    选取损失函数为绝对值,入取值为1,J为各参数的平方和计算一下结构风险?

    一次模型:y=1.0429x+0.2571 六次模型: y=-0.0289x6+ 0.73x5- 7.1972x4+ 34.933x3- 86.574x2+ 103.14x-43.8 一次模型:=1/74.68+11.0429≈1.7114 六次模型:=1/72.15+1(1-0.0289|+|0732|+|-7.1972|+ |34.933|+|-86.574|+|103.14|) ≈232.91

    踩0 评论0
  • 回答了问题 2022-04-01

    在正则化项下如何得出最佳预测集?

    通过已知训练集中的数值,计算经验风险和加了惩罚项的结构风险,从而得出相关数据,将这些数据进行比较,得出最佳预测集,所在因变量的数值,然后计算预测集,从而得出最佳预测集数值。

    踩0 评论0
  • 回答了问题 2022-04-01

    常用的交叉验证法有几种啊?

    有三种,分别为:简单交叉验证/留出法(hold-out):将数据集按一定比例随机分为两部分:训练集和测试集,分别在其上训练和测试所有备选模型,选出测试结果最好的,这相当于用模型评估代替了模型选择,直接砍掉验证集来增加其余两个集合的样本量,简单粗暴;

    K折交叉验证(k-fold cross validation):将数据集随机划分为 个大小相同或基本相同的子集,分别把每一个子集作为测试集,其余 个子集作为训练集,就得到了 组不同的训练、测试集,在这 组训练、测试集上训练并测试每一种模型,选择平均测试误差最小的模型;有时为了避免单次随机划分的特殊性,还会进行多次随机划分,将多个交叉验证的结果再进行一次平均;

    留一交叉验证(leave-one-out cross validation):K折交叉验证的特例,将K取为样本量N,也即把每个样本单独作为测试集,其余样本作为训练集。这种方法的计算量较大,一般仅用于数据稀少的情况。

    踩0 评论1
  • 回答了问题 2022-04-01

    自组法是什么啊?

    以自助采样法为基础,对数据集D有放回采样m次得到训练集, 用做测试集。实际模型与预期模型都使用m个训练样本约有1/3的样本没在训练集中出现,用作测试集。从初始数据集中产生多个不同的训练集,对集成学习有很大的好处。自助法在数据集较小、难以有效划分训练/测试集时很有用;由于改变了数据集分布可能引入估计偏差,在数据量足够时,留出法和交叉验证法更常用。

    踩0 评论0
  • 回答了问题 2022-04-01

    机器学习法中模型是什么意思啊?

    模型就是我们要求的,可以由输入产生正确输出的函数或者概率模型。求出这个模型是我们最终的目标。因此我们第一步要确定模型的范围,也就是确定假设空间。

    踩0 评论0
  • 回答了问题 2022-04-01

    机器学习法中三要素之一算法是什么意思?

    算法是指学习模型的具体的计算方法,也就是求模型中的具体的参数的方法。一般会用到最优化得算法,比如梯度下降等。

    踩0 评论0
  • 回答了问题 2022-04-01

    范数L1与L2有什么关系啊?

    1.下降速度。L1和L2都是规则化的方式,我们将权值参数以L1或者L2的方式放到代价函数里面去。然后模型就会尝试去最小化这些权值参数。而这个最小化就像一个下坡的过程,L1和L2的差别就在于这个“坡”不同,L1就是按绝对值函数的“坡”下降的,而L2是按二次函数的“坡”下降。所以实际上在0附近,L1的下降速度比L2的下降速度要快。

    2.最优化问题的平滑性。从最优化问题解的平滑性来看,L1范数的最优解相对于L2范数要少,但是其往往是最优解,而L2范数的解很多,但其更多的倾向于某种局部最优解。

    3.模型空间的限制。

    踩0 评论0
  • 回答了问题 2022-04-01

    机器学习法中范数L2的作用是什么啊?

    从学习理论的角度L2可以防止过拟合:我们让L2的规则化项||w||2最小,可以使w中的每个元素都很小,但是不是像L1范数那样使元素等于0,而是接近于零。越小的参数说明模型越简单,越简单的模型越不容易产生过拟合的现象。通过L2范数可以防止过拟合,提升模型的泛化能力。

    从优化计算的角度L2范数可以有助于处理condition number 不好地情况下矩阵求逆很困难的问题。L2范数不仅可以防止过拟合,还可以让我们的优化求解变的稳定和迅速。

    踩0 评论0
  • 回答了问题 2022-04-01

    平方损失是什么呀?

    设参数统计结构为{(X,BX,Pθ),θ∈Θ},其中Θ为参数空间,而判决空间为(D,BD).任一定义在Θ×D上的函数L(θ,d)称为损失函数.如果它满足以下两个条件: 1.0≤L(θ,d)<∞,对任何θ∈Θ和d∈D. 2.对任何固定的θ∈Θ,L(θ,d)作为d的函数是BD可测的. 损失函数是评判一个判决优劣程度的量,可理解为:当参数真值为θ,采取决策d所造成的损失L(θ,d)越小,表示决策越接近正确.当取L(θ,d)=(θ-d)2时,称之为平方损失.

    踩0 评论0
  • 回答了问题 2022-04-01

    指数损失是什么啊?

    指数损失函数是表中对错误分类施加最大惩罚的损失函数,因此其优势是误差梯度大,对应的极小值问题在使用梯度算法时求解速度快。使用指数损失的分类器通常为自适应提升算法(Adaptive Boosting, AdaBoost),AdaBoot利用指数损失易于计算的特点,构建多个可快速求解的“弱”分类器成员并按成员表现进行赋权和迭代,组合得到一个“强”分类器并输出结果。

    踩0 评论0
  • 回答了问题 2022-04-01

    铰链损失是什么啊?

    铰链损失函数是一个分段连续函数,其在分类器分类完全正确时取0。使用铰链损失对应的分类器是支持向量机(Support Vector Machine, SVM),铰链损失的性质决定了SVM具有稀疏性,即分类正确但概率不足1和分类错误的样本被识别为支持向量(support vector)被用于划分决策边界,其余分类完全正确的样本没有参与模型求解。

    踩0 评论0
  • 回答了问题 2022-04-01

    留出法是什么?

    直接将数据集D划分为两个互斥的集合,其中一个集合作为训练集S,另外一个作为测试集T,即D=S∪T,S∩T=0。在S上训练出模型后,用T来评估其测试误差,作为对泛化误差的评估。

    踩0 评论0
  • 回答了问题 2022-04-01

    过拟合是什么意思呀?

    过拟合是指为了得到一致假设而使假设变得过度严格。避免过拟合是分类器设计中的一个核心任务。通常采用增大数据量和测试样本集的方法对分类器性能进行评价。

    踩0 评论0
正在加载, 请稍后...
滑动查看更多
正在加载, 请稍后...
暂无更多信息