如何使用Scikit-learn在Python中构建一个机器学习分类器

简介: 如何使用Scikit-learn在Python中构建一个机器学习分类器

本文介绍了如何使用Python和Scikit-learn库,通过乳腺癌肿瘤数据集实现一个简单的朴素贝叶斯分类器,包括数据加载、特征处理、模型训练与评估,以预测肿瘤类型。最后展示了94.15%的分类准确性。

简介

机器学习是计算机科学、人工智能和统计学的研究领域。机器学习的重点是训练算法以从数据中学习模式并进行预测。机器学习尤其有价值,因为它让我们能够使用计算机自动化决策过程。

你会发现机器学习应用无处不在。Netflix 和 Amazon 使用机器学习来进行新产品推荐。银行使用机器学习来检测信用卡交易中的欺诈活动,而医疗保健公司开始使用机器学习来监测、评估和诊断患者。

在本教程中,您将使用 Python 中的 Scikit-learn 实现一个简单的机器学习算法。使用乳腺癌肿瘤信息数据库,您将使用朴素贝叶斯(NB)分类器来预测肿瘤是良性还是恶性。

通过本教程,您将学会如何在 Python 中构建自己的机器学习模型。

先决条件

要完成本教程,您需要:

  • Python 3 和在计算机上设置好的本地编程环境。您可以按照适用于您操作系统的相应安装和设置指南来配置此环境。
  • 如果您是 Python 新手,您可以探索《如何在 Python 3 中编码》以熟悉这种语言。
  • 在本教程的虚拟环境中安装 Jupyter Notebook。在运行机器学习实验时,Jupyter Notebook 非常有用。您可以运行简短的代码块并快速查看结果,这样可以轻松测试和调试您的代码。

步骤 1 — 导入 Scikit-learn

让我们从安装 Python 模块 Scikit-learn 开始,它是 Python 中最好和最有文档记录的机器学习库之一。

要开始我们的编码项目,请激活我们的 Python 3 编程环境。确保您位于环境所在的目录,并运行以下命令:

. my_env/bin/activate

激活我们的编程环境后,检查是否已安装 Sckikit-learn 模块:

python -c "import sklearn"

如果 sklearn 已安装,此命令将顺利完成,没有错误。如果未安装,您将看到以下错误消息:

Traceback (most recent call last): File "<string>", line 1, in <module> ImportError: No module named 'sklearn'

错误消息表明 sklearn 未安装,因此使用 pip 下载该库:

pip install scikit-learn[alldeps]

安装完成后,启动 Jupyter Notebook:

jupyter notebook

在 Jupyter 中,创建一个名为 ML Tutorial 的新 Python Notebook。在 Notebook 的第一个单元格中,导入 sklearn 模块:

import sklearn

您的笔记本应如下图所示:

!Jupyter Notebook with one Python cell, which imports sklearn

现在我们在笔记本中导入了 sklearn,我们可以开始处理我们机器学习模型的数据集。

步骤 2 — 导入 Scikit-learn 的数据集

在本教程中,我们将使用的数据集是乳腺癌威斯康星州诊断数据库。该数据集包括关于乳腺癌肿瘤的各种信息,以及恶性良性的分类标签。数据集有 569 个实例或数据,涉及 569 个肿瘤,并包括 30 个属性或特征,如肿瘤的半径、质地、光滑度和面积。

使用此数据集,我们将构建一个机器学习模型,使用肿瘤信息来预测肿瘤是恶性还是良性。

Scikit-learn 预装了各种数据集,我们可以将其加载到 Python 中,我们需要的数据集已包含在其中。导入并加载数据集:

...
from sklearn.datasets import load_breast_cancer
# 加载数据集
data = load_breast_cancer()

data 变量表示一个像字典一样工作的 Python 对象。要考虑的重要字典键是分类标签名称(target_names)、实际标签(target)、属性/特征名称(feature_names)和属性(data)。

属性是任何分类器的关键部分。属性捕捉有关数据性质的重要特征。鉴于我们要预测的标签(恶性与良性肿瘤),可能有用的属性包括肿瘤的大小、半径和质地。

为每组重要信息创建新变量并分配数据:

...
# 整理我们的数据
label_names = data['target_names']
labels = data['target']
feature_names = data['feature_names']
features = data['data']

现在我们有了每组信息的列表。为了更好地了解我们的数据集,让我们通过打印我们的类标签、第一个数据实例的标签、我们的特征名称以及第一个数据实例的特征值来查看我们的数据:

...
# 查看我们的数据
print(label_names)
print(labels[0])
print(feature_names[0])
print(features[0])

如果你运行了上面的代码,你会看到以下结果:

!Alt Jupyter Notebook with three Python cells, which prints the first instance in our dataset

正如图像所示,我们的类别名称是恶性良性,它们分别被映射为二进制值01,其中0代表恶性肿瘤,1代表良性肿瘤。因此,我们的第一个数据实例是一个平均半径1.79900000e+01的恶性肿瘤。

现在我们已经加载了数据,我们可以开始构建我们的机器学习分类器。

步骤 3 — 将数据组织成数据集

为了评估分类器的性能,你应该始终在未见过的数据上测试模型。因此,在构建模型之前,将数据分成两部分:训练集测试集

你可以使用训练集来在开发阶段训练和评估模型。然后使用训练好的模型对未见的测试集进行预测。这种方法可以让你了解模型的性能和鲁棒性。

幸运的是,sklearn有一个名为train_test_split()的函数,它可以将你的数据分成这些集合。导入该函数,然后使用它来分割数据:

...
from sklearn.model_selection import train_test_split
# 分割我们的数据
train, test, train_labels, test_labels = train_test_split(features,
                                                          labels,
                                                          test_size=0.33,
                                                          random_state=42)

该函数使用test_size参数随机分割数据。在这个例子中,我们现在有一个代表原始数据集33%的测试集(test)。剩下的数据(train)则组成训练数据。我们还有相应的标签,即train_labelstest_labels

现在我们可以开始训练我们的第一个模型了。

步骤 4 — 构建和评估模型

机器学习有许多模型,每个模型都有其优势和劣势。在本教程中,我们将专注于一个在二元分类任务中通常表现良好的简单算法,即朴素贝叶斯(NB)。

首先,导入GaussianNB模块。然后使用GaussianNB()函数初始化模型,然后使用gnb.fit()将模型拟合到数据上进行训练:

...
from sklearn.naive_bayes import GaussianNB
# 初始化我们的分类器
gnb = GaussianNB()
# 训练我们的分类器
model = gnb.fit(train, train_labels)

在训练模型之后,我们可以使用训练好的模型对我们的测试集进行预测,使用predict()函数进行预测。predict()函数返回测试集中每个数据实例的预测数组。然后我们可以打印我们的预测结果以了解模型的判断。

使用predict()函数和test集合打印结果:

...
# 进行预测
preds = gnb.predict(test)
print(preds)

运行代码,你会看到以下结果:

!Jupyter Notebook with Python cell that prints the predicted values of the Naive Bayes classifier on our test data

如你在Jupyter Notebook输出中所见,predict()函数返回了一个代表肿瘤类别(恶性 vs. 良性)的预测值数组01

现在我们有了预测结果,让我们评估我们的分类器的性能。

步骤 5 — 评估模型的准确性

使用真实类标签的数组,我们可以通过比较两个数组(test_labels vs. preds)来评估模型预测值的准确性。我们将使用sklearnaccuracy_score()函数来确定我们的机器学习分类器的准确性。

...
from sklearn.metrics import accuracy_score
# 评估准确性
print(accuracy_score(test_labels, preds))

你会看到以下结果:

!Alt Jupyter Notebook with Python cell that prints the accuracy of our NB classifier

如你在输出中所见,朴素贝叶斯分类器的准确率为94.15%。这意味着分类器能够正确预测肿瘤是恶性还是良性的时间占了94.15%。这些结果表明我们的30个属性特征集是肿瘤类别的良好指标。

你已经成功构建了你的第一个机器学习分类器。让我们通过将所有的import语句放在笔记本或脚本的顶部来重新组织代码。代码的最终版本应该如下所示:

from sklearn.datasets import load_breast_cancer
from sklearn.model_selection import train_test_split
from sklearn.naive_bayes import GaussianNB
from sklearn.metrics import accuracy_score
# 加载数据集
data = load_breast_cancer()
# 整理数据
label_names = data['target_names']
labels = data['target']
feature_names = data['feature_names']
features = data['data']
# 查看数据
print(label_names)
print('类别标签 = ', labels[0])
print(feature_names)
print(features[0])
# 分割数据
train, test, train_labels, test_labels = train_test_split(features,
                                                          labels,
                                                          test_size=0.33,
                                                          random_state=42)
# 初始化分类器
gnb = GaussianNB()
# 训练分类器
model = gnb.fit(train, train_labels)
# 进行预测
preds = gnb.predict(test)
print(preds)
# 评估准确性
print(accuracy_score(test_labels, preds))

现在你可以继续优化你的代码,看看能否让你的分类器表现得更好。你可以尝试使用不同的特征子集,甚至尝试完全不同的算法。查看 Scikit-learn 网站获取更多的机器学习想法。

结论

在本教程中,你学会了如何在 Python 中构建一个机器学习分类器。现在你可以使用 Scikit-learn 在 Python 中加载数据、整理数据、训练、预测和评估机器学习分类器。本教程中的步骤应该能帮助你在 Python 中更轻松地处理自己的数据。


目录
相关文章
|
3天前
|
消息中间件 监控 网络协议
Python中的Socket魔法:如何利用socket模块构建强大的网络通信
本文介绍了Python的`socket`模块,讲解了其基本概念、语法和使用方法。通过简单的TCP服务器和客户端示例,展示了如何创建、绑定、监听、接受连接及发送/接收数据。进一步探讨了多用户聊天室的实现,并介绍了非阻塞IO和多路复用技术以提高并发处理能力。最后,讨论了`socket`模块在现代网络编程中的应用及其与其他通信方式的关系。
|
5天前
|
JSON API 数据格式
使用Python和Flask构建简单的RESTful API
【10月更文挑战第12天】使用Python和Flask构建简单的RESTful API
17 1
|
5天前
|
机器学习/深度学习 人工智能 算法
机器学习基础:使用Python和Scikit-learn入门
【10月更文挑战第12天】本文介绍了如何使用Python和Scikit-learn进行机器学习的基础知识和入门实践。首先概述了机器学习的基本概念,包括监督学习、无监督学习和强化学习。接着详细讲解了Python和Scikit-learn的安装、数据处理、模型训练和评估等步骤,并提供了代码示例。通过本文,读者可以掌握机器学习的基本流程,并为深入学习打下坚实基础。
11 1
|
5天前
|
JSON API 数据格式
构建RESTful APIs:使用Python和Flask
【10月更文挑战第12天】本文介绍了如何使用Python和Flask构建一个简单的RESTful API。首先概述了API的重要性及RESTful API的基本概念,接着详细讲解了Flask框架的特性和安装方法。通过创建一个基本的Flask应用,定义了处理“图书”资源的GET、POST、PUT和DELETE方法的路由,展示了如何处理请求和响应,以及如何进行错误处理。最后,提供了运行和测试API的方法,总结了Flask在构建RESTful API方面的优势。
14 1
|
6天前
|
机器学习/深度学习 API 计算机视觉
基于Python_opencv人脸录入、识别系统(应用dlib机器学习库)(下)
基于Python_opencv人脸录入、识别系统(应用dlib机器学习库)(下)
14 2
|
6天前
|
机器学习/深度学习 存储 算法
基于Python_opencv人脸录入、识别系统(应用dlib机器学习库)(上)
基于Python_opencv人脸录入、识别系统(应用dlib机器学习库)(上)
16 1
|
6天前
|
机器学习/深度学习 人工智能 算法
机器学习基础:使用Python和Scikit-learn入门
本文介绍了如何使用Python和Scikit-learn进行机器学习的基础知识和实践。首先概述了机器学习的基本概念,包括监督学习、无监督学习和强化学习。接着详细讲解了Python和Scikit-learn的安装、数据处理、模型选择与训练、模型评估及交叉验证等关键步骤。通过本文,初学者可以快速上手并掌握机器学习的基本技能。
32 2
|
5天前
|
API 网络架构 Python
使用Python和Flask构建简单的RESTful API
【10月更文挑战第12天】使用Python和Flask构建简单的RESTful API
9 0
|
12天前
|
机器学习/深度学习 人工智能 自然语言处理
【MM2024】阿里云 PAI 团队图像编辑算法论文入选 MM2024
阿里云人工智能平台 PAI 团队发表的图像编辑算法论文在 MM2024 上正式亮相发表。ACM MM(ACM国际多媒体会议)是国际多媒体领域的顶级会议,旨在为研究人员、工程师和行业专家提供一个交流平台,以展示在多媒体领域的最新研究成果、技术进展和应用案例。其主题涵盖了图像处理、视频分析、音频处理、社交媒体和多媒体系统等广泛领域。此次入选标志着阿里云人工智能平台 PAI 在图像编辑算法方面的研究获得了学术界的充分认可。
【MM2024】阿里云 PAI 团队图像编辑算法论文入选 MM2024
|
7天前
|
机器学习/深度学习 人工智能 算法
【玉米病害识别】Python+卷积神经网络算法+人工智能+深度学习+计算机课设项目+TensorFlow+模型训练
玉米病害识别系统,本系统使用Python作为主要开发语言,通过收集了8种常见的玉米叶部病害图片数据集('矮花叶病', '健康', '灰斑病一般', '灰斑病严重', '锈病一般', '锈病严重', '叶斑病一般', '叶斑病严重'),然后基于TensorFlow搭建卷积神经网络算法模型,通过对数据集进行多轮迭代训练,最后得到一个识别精度较高的模型文件。再使用Django搭建Web网页操作平台,实现用户上传一张玉米病害图片识别其名称。
22 0
【玉米病害识别】Python+卷积神经网络算法+人工智能+深度学习+计算机课设项目+TensorFlow+模型训练