使用Logistic算法从疝气病症预测病马的死亡率

简介: 使用Logistic算法从疝气病症预测病马的死亡率

从疝气病症预测病马的死亡率

(1)收集数据:给定数据文件

(2)准备数据:用Python解析文本文件并填充缺失值

(3)分析数据:可视化并观察数据

(4)训练算法:使用优化算法,找到最佳系数

(5)测试算法:错误率

(6)使用算法:预测

准备数据:处理数据中的缺失值

from google.colab import drive
drive.mount("/content/drive")
Mounted at /content/drive

测试算法:用Logistic回归进行分类

from math import *
from numpy import *
def sigmoid(inX):
  return 1.0/(1+exp(-inX))
def stocGradAscent1(dataMatrix, classLabels, numIter=150):
  m, n = shape(dataMatrix)
  weights = ones(n)
  for j in range(numIter):
    dataIndex = list(range(m))
    for i in range(m):
      alpha = 4/(1+j+i)+0.01
      randIndex = int(random.uniform(0, len(dataIndex)))
      h = sigmoid(sum(dataMatrix[randIndex] * weights))
      error = classLabels[randIndex] - h
      weights = weights + alpha * error * dataMatrix[randIndex]
      del(dataIndex[randIndex])
  return weights

该函数是使用随机梯度上升算法来更新回归系数weights的函数。函数的输入参数dataMatrix是一个m行n列的矩阵,代表m个样本的n个特征值;classLabels是一个长度为m的向量,代表每个样本的类别标签;numIter是迭代次数,默认为150次。


函数首先获取矩阵dataMatrix的行数m和列数n,并初始化回归系数weights为长度为n的全1向量。


接下来开始迭代更新回归系数,迭代次数由参数numIter确定。内层循环使用随机梯度上升算法,每次从dataIndex中随机选择一个索引randIndex,计算该样本的sigmoid函数值,并计算误差error。然后根据梯度上升算法的更新公式,更新回归系数weights。更新步长alpha是根据公式4/(1+j+i)+0.01计算得到的,其中j和i分别表示外层和内层循环的迭代次数。


最后返回更新后的回归系数weights。


总结来说,该函数使用随机梯度上升算法来迭代更新回归系数weights,以拟合给定的样本数据和标签。每次迭代只使用一个样本进行更新,通过随机选择样本的方式来提高效率。最终得到的回归系数可用于预测新的样本的类别标签。

def classifyVector(inX, weights):
  prob = sigmoid(sum(inX * weights))
  if prob > 0.5:
    return 1
  else:
    return 0
def colicTest():
  frTrain = open('/content/drive/MyDrive/Colab Notebooks/MachineLearning/《机器学习实战》/Logistic回归/从疝气病症预测病马的死亡率/horseColicTraining.txt')
  frTest = open('/content/drive/MyDrive/Colab Notebooks/MachineLearning/《机器学习实战》/Logistic回归/从疝气病症预测病马的死亡率/horseColicTest.txt')
  trainingSet = []
  trainingLabels = []
  for line in frTrain.readlines():
    currLine = line.strip().split('\t')
    lineArr = []
    for i in range(21):
      lineArr.append(float(currLine[i]))
    trainingSet.append(lineArr)
    trainingLabels.append(float(currLine[21]))
  trainWeights = stocGradAscent1(array(trainingSet), trainingLabels, 1000)
  errorCount = 0
  numTestVec = 0.0
  for line in frTest.readlines():
    numTestVec += 1.0
    currLine = line.strip().split('\t')
    lineArr = []
    for i in range(21):
      lineArr.append(float(currLine[i]))
    if int(classifyVector(array(lineArr), trainWeights)) != int(currLine[21]):
      errorCount += 1
  errorRate = (float(errorCount)/numTestVec)
  print("the error rate of this test is: %f" % errorRate)
  return errorRate

这段代码是一个马的疝气病症预测模型。它使用逻辑回归算法来训练一个模型,然后使用测试数据集来测试该模型的准确率。


首先,代码打开了两个文件,一个用于训练模型,一个用于测试模型。然后,它用一个循环读取训练数据集,并将每一行的特征值转换为浮点型,并将其添加到训练集列表中。同时,将每一行的标签值转换为浮点型,并将其添加到训练标签列表中。


接下来,代码使用随机梯度上升算法(stocGradAscent1)训练模型。该算法根据训练集和标签列表迭代多次来更新权重值,以最小化模型的预测误差。


然后,代码初始化错误计数和测试向量数量的变量。接下来,它使用循环读取测试数据集,并将每一行的特征值转换为浮点型,并将其添加到测试向量列表中。然后,它使用训练得到的权重值来预测当前测试向量的标签值,并与实际标签值进行比较。如果预测错误,错误计数就会增加。


最后,代码计算预测错误率,并打印出来。该错误率表示模型在测试数据集上的准确率。

总的来说,这个函数用于训练一个马的疝气病症预测模型,并使用测试数据集来评估模型的准确率。

def multiTest():
  numTests = 10
  errorSum = 0
  for k in range(numTests):
    errorSum += colicTest()
  print("after %d iterations the average error rate is: %f" % (numTests, errorSum/float(numTests)))

这段代码定义了一个名为multiTest的函数,该函数执行了10次colicTest()函数,并计算了这10次测试的平均错误率。


在每一次循环中,errorSum变量会累加上colicTest()函数的返回值,表示该次测试的错误率。在结束循环后,会打印出"after 10 iterations the average error rate is: X"的结果,其中X是所有测试的平均错误率。需要注意的是,colicTest()函数的具体实现没有提供,因此无法确定其功能或返回类型。根据上下文推测,colicTest()函数可能用于执行某种分类测试,并返回错误率。

multiTest()
<ipython-input-5-cc83312199bc>:4: RuntimeWarning: overflow encountered in exp
  return 1.0/(1+exp(-inX))


the error rate of this test is: 0.283582
the error rate of this test is: 0.313433
the error rate of this test is: 0.313433
the error rate of this test is: 0.358209
the error rate of this test is: 0.253731
the error rate of this test is: 0.358209
the error rate of this test is: 0.373134
the error rate of this test is: 0.358209
the error rate of this test is: 0.343284
the error rate of this test is: 0.402985
after 10 iterations the average error rate is: 0.335821
目录
相关文章
|
7月前
|
算法
logistic算法
logistic算法
75 0
|
6月前
|
机器学习/深度学习 算法 索引
Logistic算法
Logistic算法
58 2
|
机器学习/深度学习 算法
【数学建模】逻辑回归算法(Logistic Resgression)
【数学建模】逻辑回归算法(Logistic Resgression)
131 0
|
机器学习/深度学习 算法 数据挖掘
机器学习算法: Logistic 回归 详解
机器学习算法: Logistic 回归 详解
19917 1
机器学习算法: Logistic 回归 详解
|
机器学习/深度学习 算法 Python
机器学习算法之——逻辑回归(Logistic Regression)
逻辑回归(Logistic Regression, LR)模型其实仅在线性回归的基础上,套用了一个逻辑函数,但也就由于这个逻辑函数,使得逻辑回归模型成为了机器学习领域一颗耀眼的明星,更是计算广告学的核心。
机器学习算法之——逻辑回归(Logistic Regression)
|
算法 数据安全/隐私保护
基于Logistic混沌序列的图像加解密算法matlab仿真
基于Logistic混沌序列的图像加解密算法matlab仿真
219 0
|
机器学习/深度学习 资源调度 算法
学习笔记: 机器学习经典算法-逻辑回归(Logistic Regression)
机器学习经典算法-个人笔记和学习心得分享
166 0
|
机器学习/深度学习 传感器 算法
【语音加密】基于混沌logistic算法实现语音信号加密解密附GUI界面
【语音加密】基于混沌logistic算法实现语音信号加密解密附GUI界面
|
机器学习/深度学习 数据采集 算法
逻辑回归(LR)算法预测患有疝气病症病马的死亡率
逻辑回归(LR)算法预测患有疝气病症病马的死亡率
180 0
逻辑回归(LR)算法预测患有疝气病症病马的死亡率
|
15天前
|
算法
基于WOA算法的SVDD参数寻优matlab仿真
该程序利用鲸鱼优化算法(WOA)对支持向量数据描述(SVDD)模型的参数进行优化,以提高数据分类的准确性。通过MATLAB2022A实现,展示了不同信噪比(SNR)下模型的分类误差。WOA通过模拟鲸鱼捕食行为,动态调整SVDD参数,如惩罚因子C和核函数参数γ,以寻找最优参数组合,增强模型的鲁棒性和泛化能力。