流程
1.数据导入,清洗拆分
2.通过sklearn得到数据模型
3.开始预测(这里我们将用回归和决策树来进行预测)
前期准备
数据
导包
``` import pandas as pd import matplotlib.pyplot as plt plt.rcParams['font.sans-serif'] = ['SimHei'] from sklearn.model_selection import train_test_split from sklearn.linear_model import LogisticRegression from sklearn.tree import DecisionTreeClassifier
这里我们主要是sklearn的包,以及numpy,方便对于数据进行操作
数据操作
准备 样本数据 结果数据
最后一列是我们的结果,我们需要把我们的结果和各项身体数据进行分离
#删除最后一列 样本数据 features=heart_df.drop(columns=["target"]) #保存标签 结果数据 target=heart_df["target"]
切分训练集
我们的训练集合的比列以3:1最为合适,即学习数据75%,预测数据25%,在sklearn里面也会有专门的函数来采集样本
#切分训练集 X_train,X_test,Y_train,Y_test=train_test_split(features,target,test_size=0.25)
训练数据
逻辑回归
def test_logistic(*data): X_train, X_test, Y_train, Y_test=data clf=LogisticRegression()#逻辑回归 clf.fit(X_test,Y_test)#梯度下降,递归 print("学习模型预测成绩:{:.4f}".format(clf.score(X_train,Y_train))) print("实际模型预测成绩:{:.4f}".format(clf.score(X_test, Y_test)))
决策树
def test_decision_tree(*data): X_train, X_test, Y_train, Y_test = data clf=DecisionTreeClassifier(max_depth=3,criterion="entropy") clf.fit(X_train,Y_train) print("学习模型决策树预测成绩:{:.4f}".format(clf.score(X_train, Y_train))) print("实际模型决策树预测成绩:{:.4f}".format(clf.score(X_test, Y_test))) # decision_tree_pre=clf.predict(X_test) # print("decision_tree:",decision_tree_pre) # print("true lbel:",Y_test) return clf
结果
这样我们的预测就完成了,我们一起来看看结果吧
决策树的结果可以输出喔
总结
经过这一顿操作下来,我们一起再好好的总结一下,起始就是将我们的数据的取值情况和它的特征先分开,然后我们利用train_test_split去获得取值,然后直接使用clf函数来进行学习,再去对我们的结果获取成绩