如何使用Scikit-learn在Python中构建一个机器学习分类器

简介: 如何使用Scikit-learn在Python中构建一个机器学习分类器

本文介绍了如何使用Python和Scikit-learn库,通过乳腺癌肿瘤数据集实现一个简单的朴素贝叶斯分类器,包括数据加载、特征处理、模型训练与评估,以预测肿瘤类型。最后展示了94.15%的分类准确性。

简介

机器学习是计算机科学、人工智能和统计学的研究领域。机器学习的重点是训练算法以从数据中学习模式并进行预测。机器学习尤其有价值,因为它让我们能够使用计算机自动化决策过程。

你会发现机器学习应用无处不在。Netflix 和 Amazon 使用机器学习来进行新产品推荐。银行使用机器学习来检测信用卡交易中的欺诈活动,而医疗保健公司开始使用机器学习来监测、评估和诊断患者。

在本教程中,您将使用 Python 中的 Scikit-learn 实现一个简单的机器学习算法。使用乳腺癌肿瘤信息数据库,您将使用朴素贝叶斯(NB)分类器来预测肿瘤是良性还是恶性。

通过本教程,您将学会如何在 Python 中构建自己的机器学习模型。

先决条件

要完成本教程,您需要:

  • Python 3 和在计算机上设置好的本地编程环境。您可以按照适用于您操作系统的相应安装和设置指南来配置此环境。
  • 如果您是 Python 新手,您可以探索《如何在 Python 3 中编码》以熟悉这种语言。
  • 在本教程的虚拟环境中安装 Jupyter Notebook。在运行机器学习实验时,Jupyter Notebook 非常有用。您可以运行简短的代码块并快速查看结果,这样可以轻松测试和调试您的代码。

步骤 1 — 导入 Scikit-learn

让我们从安装 Python 模块 Scikit-learn 开始,它是 Python 中最好和最有文档记录的机器学习库之一。

要开始我们的编码项目,请激活我们的 Python 3 编程环境。确保您位于环境所在的目录,并运行以下命令:

. my_env/bin/activate

激活我们的编程环境后,检查是否已安装 Sckikit-learn 模块:

python -c "import sklearn"

如果 sklearn 已安装,此命令将顺利完成,没有错误。如果未安装,您将看到以下错误消息:

Traceback (most recent call last): File "<string>", line 1, in <module> ImportError: No module named 'sklearn'

错误消息表明 sklearn 未安装,因此使用 pip 下载该库:

pip install scikit-learn[alldeps]

安装完成后,启动 Jupyter Notebook:

jupyter notebook

在 Jupyter 中,创建一个名为 ML Tutorial 的新 Python Notebook。在 Notebook 的第一个单元格中,导入 sklearn 模块:

import sklearn

您的笔记本应如下图所示:

!Jupyter Notebook with one Python cell, which imports sklearn

现在我们在笔记本中导入了 sklearn,我们可以开始处理我们机器学习模型的数据集。

步骤 2 — 导入 Scikit-learn 的数据集

在本教程中,我们将使用的数据集是乳腺癌威斯康星州诊断数据库。该数据集包括关于乳腺癌肿瘤的各种信息,以及恶性良性的分类标签。数据集有 569 个实例或数据,涉及 569 个肿瘤,并包括 30 个属性或特征,如肿瘤的半径、质地、光滑度和面积。

使用此数据集,我们将构建一个机器学习模型,使用肿瘤信息来预测肿瘤是恶性还是良性。

Scikit-learn 预装了各种数据集,我们可以将其加载到 Python 中,我们需要的数据集已包含在其中。导入并加载数据集:

...
from sklearn.datasets import load_breast_cancer
# 加载数据集
data = load_breast_cancer()

data 变量表示一个像字典一样工作的 Python 对象。要考虑的重要字典键是分类标签名称(target_names)、实际标签(target)、属性/特征名称(feature_names)和属性(data)。

属性是任何分类器的关键部分。属性捕捉有关数据性质的重要特征。鉴于我们要预测的标签(恶性与良性肿瘤),可能有用的属性包括肿瘤的大小、半径和质地。

为每组重要信息创建新变量并分配数据:

...
# 整理我们的数据
label_names = data['target_names']
labels = data['target']
feature_names = data['feature_names']
features = data['data']

现在我们有了每组信息的列表。为了更好地了解我们的数据集,让我们通过打印我们的类标签、第一个数据实例的标签、我们的特征名称以及第一个数据实例的特征值来查看我们的数据:

...
# 查看我们的数据
print(label_names)
print(labels[0])
print(feature_names[0])
print(features[0])

如果你运行了上面的代码,你会看到以下结果:

!Alt Jupyter Notebook with three Python cells, which prints the first instance in our dataset

正如图像所示,我们的类别名称是恶性良性,它们分别被映射为二进制值01,其中0代表恶性肿瘤,1代表良性肿瘤。因此,我们的第一个数据实例是一个平均半径1.79900000e+01的恶性肿瘤。

现在我们已经加载了数据,我们可以开始构建我们的机器学习分类器。

步骤 3 — 将数据组织成数据集

为了评估分类器的性能,你应该始终在未见过的数据上测试模型。因此,在构建模型之前,将数据分成两部分:训练集测试集

你可以使用训练集来在开发阶段训练和评估模型。然后使用训练好的模型对未见的测试集进行预测。这种方法可以让你了解模型的性能和鲁棒性。

幸运的是,sklearn有一个名为train_test_split()的函数,它可以将你的数据分成这些集合。导入该函数,然后使用它来分割数据:

...
from sklearn.model_selection import train_test_split
# 分割我们的数据
train, test, train_labels, test_labels = train_test_split(features,
                                                          labels,
                                                          test_size=0.33,
                                                          random_state=42)

该函数使用test_size参数随机分割数据。在这个例子中,我们现在有一个代表原始数据集33%的测试集(test)。剩下的数据(train)则组成训练数据。我们还有相应的标签,即train_labelstest_labels

现在我们可以开始训练我们的第一个模型了。

步骤 4 — 构建和评估模型

机器学习有许多模型,每个模型都有其优势和劣势。在本教程中,我们将专注于一个在二元分类任务中通常表现良好的简单算法,即朴素贝叶斯(NB)。

首先,导入GaussianNB模块。然后使用GaussianNB()函数初始化模型,然后使用gnb.fit()将模型拟合到数据上进行训练:

...
from sklearn.naive_bayes import GaussianNB
# 初始化我们的分类器
gnb = GaussianNB()
# 训练我们的分类器
model = gnb.fit(train, train_labels)

在训练模型之后,我们可以使用训练好的模型对我们的测试集进行预测,使用predict()函数进行预测。predict()函数返回测试集中每个数据实例的预测数组。然后我们可以打印我们的预测结果以了解模型的判断。

使用predict()函数和test集合打印结果:

...
# 进行预测
preds = gnb.predict(test)
print(preds)

运行代码,你会看到以下结果:

!Jupyter Notebook with Python cell that prints the predicted values of the Naive Bayes classifier on our test data

如你在Jupyter Notebook输出中所见,predict()函数返回了一个代表肿瘤类别(恶性 vs. 良性)的预测值数组01

现在我们有了预测结果,让我们评估我们的分类器的性能。

步骤 5 — 评估模型的准确性

使用真实类标签的数组,我们可以通过比较两个数组(test_labels vs. preds)来评估模型预测值的准确性。我们将使用sklearnaccuracy_score()函数来确定我们的机器学习分类器的准确性。

...
from sklearn.metrics import accuracy_score
# 评估准确性
print(accuracy_score(test_labels, preds))

你会看到以下结果:

!Alt Jupyter Notebook with Python cell that prints the accuracy of our NB classifier

如你在输出中所见,朴素贝叶斯分类器的准确率为94.15%。这意味着分类器能够正确预测肿瘤是恶性还是良性的时间占了94.15%。这些结果表明我们的30个属性特征集是肿瘤类别的良好指标。

你已经成功构建了你的第一个机器学习分类器。让我们通过将所有的import语句放在笔记本或脚本的顶部来重新组织代码。代码的最终版本应该如下所示:

from sklearn.datasets import load_breast_cancer
from sklearn.model_selection import train_test_split
from sklearn.naive_bayes import GaussianNB
from sklearn.metrics import accuracy_score
# 加载数据集
data = load_breast_cancer()
# 整理数据
label_names = data['target_names']
labels = data['target']
feature_names = data['feature_names']
features = data['data']
# 查看数据
print(label_names)
print('类别标签 = ', labels[0])
print(feature_names)
print(features[0])
# 分割数据
train, test, train_labels, test_labels = train_test_split(features,
                                                          labels,
                                                          test_size=0.33,
                                                          random_state=42)
# 初始化分类器
gnb = GaussianNB()
# 训练分类器
model = gnb.fit(train, train_labels)
# 进行预测
preds = gnb.predict(test)
print(preds)
# 评估准确性
print(accuracy_score(test_labels, preds))

现在你可以继续优化你的代码,看看能否让你的分类器表现得更好。你可以尝试使用不同的特征子集,甚至尝试完全不同的算法。查看 Scikit-learn 网站获取更多的机器学习想法。

结论

在本教程中,你学会了如何在 Python 中构建一个机器学习分类器。现在你可以使用 Scikit-learn 在 Python 中加载数据、整理数据、训练、预测和评估机器学习分类器。本教程中的步骤应该能帮助你在 Python 中更轻松地处理自己的数据。


目录
相关文章
|
25天前
|
机器学习/深度学习 数据采集 算法
深入调查研究Scikit-learn
【11月更文挑战第11天】
43 1
|
22天前
|
机器学习/深度学习 数据采集 数据处理
Scikit-learn Pipeline完全指南:高效构建机器学习工作流
Scikit-learn管道是构建高效、鲁棒、可复用的机器学习工作流程的利器。通过掌握管道的使用,我们可以轻松地完成从数据预处理到模型训练、评估和部署的全流程,极大地提高工作效率。
37 2
Scikit-learn Pipeline完全指南:高效构建机器学习工作流
|
14天前
|
机器学习/深度学习 人工智能 算法
人工智能浪潮下的编程实践:构建你的第一个机器学习模型
在人工智能的巨浪中,每个人都有机会成为弄潮儿。本文将带你一探究竟,从零基础开始,用最易懂的语言和步骤,教你如何构建属于自己的第一个机器学习模型。不需要复杂的数学公式,也不必担心编程难题,只需跟随我们的步伐,一起探索这个充满魔力的AI世界。
33 12
|
13天前
|
数据采集 分布式计算 大数据
构建高效的数据管道:使用Python进行ETL任务
在数据驱动的世界中,高效地处理和移动数据是至关重要的。本文将引导你通过一个实际的Python ETL(提取、转换、加载)项目,从概念到实现。我们将探索如何设计一个灵活且可扩展的数据管道,确保数据的准确性和完整性。无论你是数据工程师、分析师还是任何对数据处理感兴趣的人,这篇文章都将成为你工具箱中的宝贵资源。
|
12天前
|
机器学习/深度学习 人工智能 算法
深度学习入门:用Python构建你的第一个神经网络
在人工智能的海洋中,深度学习是那艘能够带你远航的船。本文将作为你的航标,引导你搭建第一个神经网络模型,让你领略深度学习的魅力。通过简单直观的语言和实例,我们将一起探索隐藏在数据背后的模式,体验从零开始创造智能系统的快感。准备好了吗?让我们启航吧!
39 3
|
24天前
|
机器学习/深度学习 数据采集 算法
从零到一:构建高效机器学习模型的旅程####
在探索技术深度与广度的征途中,我深刻体会到技术创新既在于理论的飞跃,更在于实践的积累。本文将通过一个具体案例,分享我在构建高效机器学习模型过程中的实战经验,包括数据预处理、特征工程、模型选择与优化等关键环节,旨在为读者提供一个从零开始构建并优化机器学习模型的实用指南。 ####
|
20天前
|
数据采集 XML 存储
构建高效的Python网络爬虫:从入门到实践
本文旨在通过深入浅出的方式,引导读者从零开始构建一个高效的Python网络爬虫。我们将探索爬虫的基本原理、核心组件以及如何利用Python的强大库进行数据抓取和处理。文章不仅提供理论指导,还结合实战案例,让读者能够快速掌握爬虫技术,并应用于实际项目中。无论你是编程新手还是有一定基础的开发者,都能在这篇文章中找到有价值的内容。
|
22天前
|
机器学习/深度学习 数据采集
机器学习入门——使用Scikit-Learn构建分类器
机器学习入门——使用Scikit-Learn构建分类器
|
24天前
|
JSON 前端开发 API
使用Python和Flask构建简易Web API
使用Python和Flask构建简易Web API
|
24天前
|
存储 API 数据库
使用Python和Flask构建简单的RESTful API
使用Python和Flask构建简单的RESTful API