开发者社区> 问答> 正文

常说的回归分析的方法有些什么啊?

已解决

常说的回归分析的方法有些什么啊?

展开
收起
游客3gzok77e677xw 2022-04-02 00:26:28 496 0
1 条回答
写回答
取消 提交回答
  • 推荐回答
    1. Linear Regression线性回归
    它是最为人熟知的建模技术之一。线性回归通常是人们在学习预测模型时首选的技术之一。在这种技术中,因变量是连续的,自变量可以是连续的也可以是离散的,回归线的性质是线性的。
    线性回归使用最佳的拟合直线(也就是回归线)在因变量(Y)和一个或多个自变量(X)之间建立一种关系。
    用一个方程式来表示它,即y=a+bx+e
    
    其中a表示截距,b表示直线的斜率,e是误差项。这个方程可以根据给定的预测变量(s)来预测目标变量的值。
    2.Logistic Regression逻辑回归
    逻辑回归是用来计算“事件=Success”和“事件=Failure”的概率。当因变量的类型属于二元(1 / 0,真/假,是/否)变量时,我们就应该使用逻辑回归。这里,Y的值从0到1,它可以用下方程表示。
    
    odd=p/(1-p)
    
    上述式子中,p表述具有某个特征的概率。
    
    2022-04-02 00:30:04
    赞同 展开评论 打赏
问答地址:
问答排行榜
最热
最新

相关电子书

更多
概率图模型 立即下载
典型模型-卷积神经网络入门 从概念原理到应用实现 立即下载
纯干货 | 机器学习中梯度下降法的分类及对比分析 立即下载