游客unsfxtnjbj256_个人页

个人头像照片 游客unsfxtnjbj256
个人头像照片 个人头像照片
0
282
0

个人介绍

暂无个人介绍

擅长的技术

获得更多能力
通用技术能力:

暂时未有相关通用技术能力~

云产品技术能力:

暂时未有相关云产品技术能力~

阿里云技能认证

详细说明
暂无更多信息

2022年04月

正在加载, 请稍后...
暂无更多信息
  • 回答了问题 2022-04-02

    机器学习中分裂属性的三种不同情况是什么啊?

    分裂属性有三种: 1、属性为离散的,不需要二叉树的产生。在这个时候,将每个属性分割成一个分支。 2、属性为离散的,需要二叉树的二叉树。这时,根据该子集的属性划分,将其分为“归属该子集”和“非该子集”。 3、属性是一个持续的数值。现在,将一个分割点split_point,然后根据>plit_point和
    踩0 评论0
  • 回答了问题 2022-04-02

    机器学习中构造决策树的关键步骤是什么呢?

    在决策树的构建中,最重要的一步就是对属性进行分割。分裂属性是指在一个特定的节点上,根据属性的不同,构建出相应的分支,目的是使每个子集都尽量“纯”。
    踩0 评论0
  • 回答了问题 2022-04-02

    机器学习中决策树的构造是什么呀?

    决策树构建:利用属性选择指标,可以最大限度地将一个元组分成不同的类别。决策树的构建是根据属性选取的指标来决定每个属性的拓扑关系。
    踩0 评论0
  • 回答了问题 2022-04-02

    机器学习中决策树是什么啊?

    决策树:是一种树(二叉树或二叉树)的结构。它的每一个非树叶结点都代表了一个特性属性的检验,每一个枝条都代表了该特性在特定的值区域的输出,而每一个叶子节点则存储了一个分类。利用决策树进行决策的方法是从根结点出发,对被分类物中对应的特征属性进行检测,然后根据它们的数值选取输出分支,直至达到叶片结点,以确定该树叶结点所存储的类别。
    踩0 评论0
  • 回答了问题 2022-04-02

    递归特征消除的主要思想是可以怎么解释的呢?

    递归特征消除的基本思路是通过不断地构造模型(例如 SVM、回归模型),再选择最佳(或最差)的特性(可按系数选择),将选定的特性放在一旁,接着对其余特性进行重复,直至遍及全部特性为止。
    踩0 评论0
  • 回答了问题 2022-04-02

    利用Scikit-Learn对数据进行逻辑回归分析的步骤是什么呢?

    首先是特征过滤,特征筛选的方法有很多种,其中最简单的就是 F检验(f_regression)给出各个特性的 F和 P值,这样就可以对变量进行筛选(F_regression)(F_regression),然后是递归特性消除(RFE)和稳定选择(Stability Selection)。然后,根据这些特征进行逻辑回归建模
    踩0 评论0
  • 回答了问题 2022-04-02

    机器学习中的逻辑回归的成功之处是什么呀?

    逻辑回归的成功之处是,用 sigmoid函数把本来可以很大的θ TX映射为(0、1),由此实现了概率估计。和 sigmoid功能图片类似
    踩0 评论0
  • 回答了问题 2022-04-02

    机器学习中的逻辑回归是什么啊?

    逻辑回归。它始于输出结果为有实际意义的连续值的线性回归,但是线性回归对于分类的问题没有办法准确而又具备鲁棒性地分割,因此我们设计出了逻辑回归这样一个算法,它的输出结果表征了某个样本属于某类别的概率。
    踩0 评论0
  • 回答了问题 2022-04-02

    机器学习中,对算法进行调优,为何准确度变低了呢?

    原因是全批量梯度上升法是在整个数据集上迭代了500次才得到的,迭代次数要远大于随机梯度方法,而判断一个算法优劣的可靠方法是看它是否收敛,也就是参数是否达到了稳定值,是否还会不断变化。
    踩0 评论0
  • 回答了问题 2022-04-02

    机器学习分类算法运行结果精度低应该怎么办啊?

    一、先对资料进行预处理,再进行一次,若仍有较差的准确度,则按第2步骤执行; 二、观察(特性工程)训练集合的准确性; 若训练集合的准确率较低,则该模型的拟合不足。因此,数据特征维度、样本总数和模型复杂性都必须提高。 当训练集合具有较高的准确度,而检验集合的准确性较差时,则模型过拟合。这样就必须减少数据的维数,减少模型的复杂性。 三、采用网格搜索、学习曲线等方式对 SVM超参数进行优化; 四、试着把模型做出来;(整合) 五、以上的都做了,如果精度不够,可以考虑更换。
    踩0 评论0
  • 回答了问题 2022-04-02

    随机算法具有哪些特点呢?

    随机算法是一种将一定的随机性应用于其逻辑中的一种算法。这种方法一般采用均匀随动位置作为辅助输入,从而达到了“一般”的性能。从形式上讲,算法的性能是随机位变化而变化的;所以,不管是在运行的时候,还是在输出,或者这两种情况下,都是一个随机的。 在一般的应用中,随机化算法采用了一个接近的伪随机数产生器,而不是真正的随机位。这种执行可能会与期望的理论行为背道而驰。
    踩0 评论0
  • 回答了问题 2022-04-02

    随机梯度上升和全批量的不同主要体现在哪里呢?

    全批量在每一次对回归系数进行更新时,都要遍历整组的所有数据,这样的算法对于小的数据集来说是可行的,但是当有数以百万计的样本、数以千计的特征时,这种方法就会变得非常复杂。而随机梯度递增则是一次只使用一个采样点进行回归系数的更新,从而使算法的运算量大为降低,收敛速度也得到了明显的改善。
    踩0 评论0
  • 回答了问题 2022-04-02

    随机梯度上升算法的伪代码是什么呢?

    随机梯度上升算法伪代码如所示: 全部回归系数初始化时1 对数据集中每个样本 计算该样本的梯度 使用alpha*gradient更新回归系数值 返回回归系数值
    踩0 评论0
  • 回答了问题 2022-04-02

    梯度下降法的优化思想是什么啊?

    该方法的最优思路是:将当前位置的负向梯度方向作为搜索方向,由于该方向是目前最快速的下降方向,因此也被称作最快速下降。最快下降法距离目标越近,步距越短,推进速度就越慢。
    踩0 评论0
  • 回答了问题 2022-04-02

    牛顿迭代的缺点有哪些呢?

    在迭代的过程中牛顿迭代的缺点有靠近极小值收敛速度变慢、直线搜索可能产生一些问题、可能出现之字形的下滑。
    踩0 评论0
  • 回答了问题 2022-04-02

    min-batch 小批量梯度下降法MBGD形式有什么优点啊?

    小批量梯度下降法(MBGD):每次更新的回归系数仅仅一部分样本参加。这种方法包含了上述两种方法的优点,同时也减弱了两者的缺点,将两种算法平衡,假如数据集的样本数不极端,可采用小批量梯度下降法。
    踩0 评论0
  • 回答了问题 2022-04-02

    随机梯度下降法SGD的形式有什么缺点呢?

    SGD:每一次的回归系数更新仅包含一个样本。 优势:快速的培训 缺点:精确度下降,不能全面优化,容易得到局部最优解 应用范围:大量的数据集合
    踩0 评论0
  • 回答了问题 2022-04-02

    批量梯度下降法中的bgd形式的缺点是什么呢?

    全批量梯度下降法(BGD):每次更新回归系数所有样本都参与。优点:分类准确,获取全局最优解。缺点:当样本比较多时,训练速度特别慢。适用场合:样本较少的数据集
    踩0 评论0
  • 回答了问题 2022-04-02

    常用的梯度下降法还具体包含有三种不同的形式,这三种形式是什么啊?

    在机器学习中,常用的梯度下降法具体包含有三种不同的形式是:批量梯度下降法BGD,随机梯度下降法SGD,min-batch 小批量梯度下降法MBGD
    踩0 评论0
  • 回答了问题 2022-04-02

    为什么负梯度的值可以作为梯度提升算法中残差的近似值呢?

    我们发现,在提升树算法中,残差是一个负的梯度,因而可以扩展到其它非二次错误(类别或排序问题)的损失函数。即,该方法是一种基于梯度的递减算法,它可以通过改变损失函数和计算它的负值来扩展。也就是说,该结论可以被推广成用损耗函数的负梯度来逼近一般损失函数。
    踩0 评论0
正在加载, 请稍后...
滑动查看更多
正在加载, 请稍后...
暂无更多信息