Machine Learning | 基于逻辑回归做二分类进行癌症预测

简介: Machine Learning | 基于逻辑回归做二分类进行癌症预测

导入包

import pandas as pd
import numpy as np
from sklearn.datasets import load_boston
from sklearn.linear_model import LinearRegression, SGDRegressor,  Ridge, LogisticRegression
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.metrics import mean_squared_error, classification_report
from sklearn.externals import joblib

构造列标签名字

column = ['Sample code number','Clump Thickness', 'Uniformity of Cell Size','Uniformity of Cell Shape','Marginal Adhesion', 'Single Epithelial Cell Size','Bare Nuclei','Bland Chromatin','Normal Nucleoli','Mitoses','Class']

读取数据

data = pd.read_csv("breast-cancer-wisconsin.csv", names=column)
data.head()


image.png

缺失值进行处理

data = data.replace(to_replace='?', value=np.nan)
data = data.dropna()

数据的分割

x_train, x_test, y_train, y_test = train_test_split(data[column[1:10]], data[column[10]], test_size=0.25)


标准化处理

std = StandardScaler()
x_train = std.fit_transform(x_train)
x_test = std.transform(x_test)

逻辑回归预测

lg = LogisticRegression(C=1.0)
lg.fit(x_train, y_train)
print(lg.coef_)
LogisticRegression(C=1.0, class_weight=None, dual=False, fit_intercept=True,
          intercept_scaling=1, max_iter=100, multi_class='warn',
          n_jobs=None, penalty='l2', random_state=None, solver='warn',
          tol=0.0001, verbose=0, warm_start=False)LogisticRegression(C=1.0, class_weight=None, dual=False, fit_intercept=True,
          intercept_scaling=1, max_iter=100, multi_class='warn',
          n_jobs=None, penalty='l2', random_state=None, solver='warn',
          tol=0.0001, verbose=0, warm_start=False)
[[ 1.60392495 -0.11066665  0.93702846  1.01160157 -0.31111269  1.20876603
   1.20701977  1.04581779  0.81269039]]
y_predict = lg.predict(x_test)
print("准确率:", lg.score(x_test, y_test))
print("召回率:", classification_report(y_test, y_predict, labels=[2, 4], target_names=["良性", "恶性"]))

image.png

目录
相关文章
|
6月前
|
机器学习/深度学习 算法 数据可视化
Machine Learning机器学习之高维数据降维(主成分分析PCA、线性判别分析、自编码器超级无敌详细讲解)
Machine Learning机器学习之高维数据降维(主成分分析PCA、线性判别分析、自编码器超级无敌详细讲解)
|
1月前
|
机器学习/深度学习 存储 数据可视化
基于机器学习的地震预测(Earthquake Prediction with Machine Learning)(上)
基于机器学习的地震预测(Earthquake Prediction with Machine Learning)
44 0
|
1月前
|
机器学习/深度学习 存储 算法
基于机器学习的地震预测(Earthquake Prediction with Machine Learning)(下)
基于机器学习的地震预测(Earthquake Prediction with Machine Learning)
35 0
|
6月前
|
机器学习/深度学习 存储 算法
R语言基于Bagging分类的逻辑回归(Logistic Regression)、决策树、森林分析心脏病患者
R语言基于Bagging分类的逻辑回归(Logistic Regression)、决策树、森林分析心脏病患者
|
机器学习/深度学习 传感器 算法
【SVM回归预测】基于支持向量机的数据回归预测(libsvm)附matlab代码
【SVM回归预测】基于支持向量机的数据回归预测(libsvm)附matlab代码
|
机器学习/深度学习 算法 数据挖掘
机器学习算法: Logistic 回归 详解
机器学习算法: Logistic 回归 详解
19904 1
机器学习算法: Logistic 回归 详解
|
算法
周志华《Machine Learning》学习笔记(3)--假设检验&方差&偏差
在上两篇中,我们介绍了多种常见的评估方法和性能度量标准,这样我们就可以根据数据集以及模型任务的特征,选择出最合适的评估和性能度量方法来计算出学习器的“测试误差“。
180 0
周志华《Machine Learning》学习笔记(3)--假设检验&方差&偏差
|
机器学习/深度学习 传感器 算法
【CNN-SVM回归预测】基于CNN-SVM实现数据回归预测附matlab代码
【CNN-SVM回归预测】基于CNN-SVM实现数据回归预测附matlab代码
|
机器学习/深度学习 算法 前端开发
Machine Learning-L12-集成学习:Boosting/Bagging/随机森林
Machine Learning-L12-集成学习:Boosting/Bagging/随机森林
Machine Learning-L12-集成学习:Boosting/Bagging/随机森林
|
机器学习/深度学习 算法 数据可视化
ML:基于自定义数据集利用Logistic、梯度下降算法GD、LoR逻辑回归、Perceptron感知器、SVM支持向量机、LDA线性判别分析算法进行二分类预测(决策边界可视化)
ML:基于自定义数据集利用Logistic、梯度下降算法GD、LoR逻辑回归、Perceptron感知器、SVM支持向量机、LDA线性判别分析算法进行二分类预测(决策边界可视化)
ML:基于自定义数据集利用Logistic、梯度下降算法GD、LoR逻辑回归、Perceptron感知器、SVM支持向量机、LDA线性判别分析算法进行二分类预测(决策边界可视化)