gxx2_个人页

个人头像照片 gxx2
个人头像照片 个人头像照片
2
476
0

个人介绍

暂无个人介绍

擅长的技术

获得更多能力
通用技术能力:

暂时未有相关通用技术能力~

云产品技术能力:

暂时未有相关云产品技术能力~

阿里云技能认证

详细说明
暂无更多信息

2022年04月

  • 发表了文章 2022-04-22

    反了!居然让我教她自动化测试!

  • 发表了文章 2022-04-22

    破壁人AI百度:科技公司反内卷的典型样本

正在加载, 请稍后...
滑动查看更多
  • 回答了问题 2022-08-01

    模型评价与选择中帮助选择分类器的其他指标有哪些呢?

    其他指标有: 1. 规则的优度   2. 决策树大小    3.分类规则的紧凑性
    踩0 评论0
  • 回答了问题 2022-08-01

    模型评价与选择中影响模型选择准确性的问题有哪些呢?

    问题有: 1. 分类器精度:预测类标签    2. 速度:构建模型的时间(训练时间);使用模型分类(预测时间)        3. 鲁棒性:处理噪声和缺失值       4. 可扩展性:驻留在磁盘上的数据库的效率   5. 可解释性:模型提供的理解和洞察力
    踩0 评论0
  • 回答了问题 2022-08-01

    模型评价与选择中用贝叶斯分类器计算ROC曲线分数的意义是什么呢?

    朴素的贝叶斯分类器可以计算每一个事例,它为正事例的概率和为负事例的概率,就可以把它的正事例的概率作为曲线里的一个分数。
    踩0 评论0
  • 回答了问题 2022-07-31

    模型评价与选择中如何绘制ROC曲线呢?

    对于ROC曲线来说,每一点都代表了分类器的TPR和FPR,主要是通过调节它的分类阈值来达到。可以对测试集的每一个事例计算它的一个分数,分数越高就表明被判断为正事例率的可能性越大,把这些分数计算出来之后,把它从高到低进行排序,然后依次选择每一个分数作为阈值来判断事例的类别,从而可以得到多个ROC曲线上的点。然后再将这些点把它平滑地连接起来,就可以得到我们这个分类器的ROC的曲线。
    踩0 评论0
  • 回答了问题 2022-07-31

    模型评价与选择中如何用ROC曲线来判断代表的分类器的好坏呢?

    用一个对角线表示随机猜测的一个分类的性能,比如说对于某一个固定的FPR,在一定FPR的基础上,如果这个分类器它的FPR越高则越好。所以我们利用这个曲线下面的面积来代表这个分类器的性能,即如果在固定的一个FPR的条件下,它的TPR越高,就意味着这个曲线下的面积越大. 因此就把这个ROC曲线下的这部分面积,叫作AUC也就是一个分类器,即它所对应ROC曲线的AUC面积越大,这个分类器就越好。
    踩0 评论0
  • 回答了问题 2022-07-31

    模型评价与选择中的ROC曲线的计算公式有哪些呢?

    ROC曲线中,横坐标代表的是假的正事例率,纵坐标代表是真的正事例率. 对于假的正事例率,计算公式为FPR=FP/( FP+TN )。 真的正事例率,计算公式为TPR=TP/ (TP+FN )。
    踩0 评论0
  • 回答了问题 2022-07-31

    模型评价与选择中的ROC曲线是什么意思呢?

    ROC(接收者操作)曲线:用于分类模型的视觉比较。起源于信号检测理论。 显示了真事例率和假事例率之间的关系。 ROC曲线下面积(AUC:曲线下面积)是模型精度的度量。
    踩0 评论0
  • 回答了问题 2022-07-31

    模型评价与选择中进行交叉验证的例子有什么?

    示例如下: 3折交叉验证:在数据集中进行又放回的采样得到一个抽样集。把抽样集分为三个部分,那么每一次取其中的一个部分作为我们的测试集,其余两个部分作为训练集,也就是说在每一个fold中,都会得到一个分类器;有三个fold,就能得到三个分类器,然后把这三个分类器的accuracy取平均,就能得到这一次循环的精度。
    踩0 评论0
  • 回答了问题 2022-07-31

    模型评价与选择中的交叉验证是什么意思呢?

    交叉验证(k-折叠,其中k=10是最流行的),是指将数据进行又放回的采样,然后随机划分为k个互斥子集,每个子集大小大致相等。每次在k个部分中取一部分作为测试集,其余的作为训练集,之后得到一个分类器,以此计算它们的精度,把得到的精度加起来取平均值。       在第一次迭代时,使用D;作为测试集,其他作为训练集      余一法:每次取一个作为测试集,其余的作为训练集。对于小数据,k折叠,其中k=#的元组。     分层交叉验证:折叠被分层,以便在每个折叠中的类分布与初始数据中的分布大致相同。
    踩0 评论0
  • 回答了问题 2022-07-31

    模型评价与选择中的流域法是什么意思呢?

    给定的数据被随机划分成两个独立的集合。 一般用2/3作为训练集;1/3用来精度估计的测试集。重复上述过程就可以得到多个训练集和测试集,利用好每一个分类器的精度作为每一轮的精度,它们加起来取平均就得到了最终的精度。
    踩0 评论0
  • 回答了问题 2022-07-31

    模型评价与选择中F measure 是什么意思呢?

    精度与召回率之间的“逆”关系,一般来说,它是精确性和召回的加权度量。 公式如下: 它是将β时间指定为多个权重以回忆精确性。    F1-度量(平衡F-度量),也就是说,当β=1,认为P、R是同等重要的,即F1 =2PR/(P+R)
    踩0 评论0
  • 回答了问题 2022-07-31

    模型评价与选择中F measure or F-score 提出的意义是什么呢?

    因为召回率和精度这两个指标是相互制约的,所以为了平衡这两个指标我们提出了F measure or F-score 。     F度量,它可以通过控制β来确定更看重召回率和精度哪一个指标
    踩0 评论0
  • 回答了问题 2022-07-31

    模型评价与选择中的召回率及其公式分别是什么意思呢?

    召回率:完整性:肯定元组中有多少%标记为正元组    公式为:R=Recall=TP/(TP+FN)    含义为在正事例中,有多少正事例被正确的预测。
    踩0 评论0
  • 回答了问题 2022-07-31

    模型评价与选择中的精确性及其公式分别是什么意思呢?

    精确性:分类器标记为“阳性”的元组中有多少%是正的    公式为:P=Precision=TP/(TP+FP)     TP+FP指的是被分类为正事例的元素个数,TP是被正确分类为正事例的个数             精度的含义是在预测为正事例的比例中,有多少是真正的正事例
    踩0 评论0
  • 回答了问题 2022-07-31

    模型评价与选择中的特效性及其公式分别是什么意思呢?

    特效性:真实阴性识别率    公式为:Specificity = TN/N     含义为在负事例中有多少负事例被正确分类
    踩0 评论0
  • 回答了问题 2022-07-31

    模型评价与选择中的敏感性及其公式分别是什么意思呢?

    敏感性(召回率):真实阳性识别率   公式为:Sensitivity = TP/P    含义为正事例中有多少正事例被正确分类
    踩0 评论0
  • 回答了问题 2022-07-31

    模型评价与选择中的阶级不平衡问题有哪些呢?

    问题有: 1. 一种可能是罕见的,例如:欺诈或HIV阳性       2. 绝大多数消极阶层和少数积极阶层    3. 解决阶级失衡问题的措施
    踩0 评论0
  • 回答了问题 2022-07-31

    模型评价与选择中误差率的计算公式是什么呢?

    Error rate=1 - accuracy 或  Error rate =(FP+ FN)/AIl         FP、FN代表的是被错误分类的元素的数目
    踩0 评论0
  • 回答了问题 2022-07-31

    模型评价与选择中准确度的计算公式是什么呢?

    Accuracy =(TP+TN)/All     TP、TN代表的是被正确分类的数据对象的个数,所以该公式表示被正确分类的数据对象的个数在训练集的所有对象的比例。
    踩0 评论0
  • 回答了问题 2022-07-31

    模型评价与选择中分类器评估度量标准有哪些呢?

    评估度量标准有:准确度、误差率、敏感性和特异性
    踩0 评论0
正在加载, 请稍后...
滑动查看更多
正在加载, 请稍后...
暂无更多信息