步骤1:导入必要的库
```python
import pandas as pd
from sklearn.feature_extraction.text import CountVectorizer
from sklearn.naive_bayes import MultinomialNB
from sklearn.metrics import accuracy_score
from sklearn.model_selection import train_test_split
```
步骤2:准备数据
我们将使用一个示例数据集,包含两个类别(Positive和Negative),每个类别都有一些文本示例。我们将使用Pandas库来读取数据,并查看一些样本数据。
```python
#读取数据
data = pd.read_csv('data.csv')
#查看前五个文本数据
print(data.head())
```
步骤3:创建特征向量和目标变量
我们需要将文本转化为数字来训练我们的模型。使用CountVectorizer可以将文本转换为数字特征向量。我们还需要将目标变量(即分类标签)转换为数字。
```python
#使用CountVectorizer创建特征向量
vectorizer = CountVectorizer(stop_words='english')
X = vectorizer.fit_transform(data.text)
#将目标变量转换为数字
y = pd.factorize(data.label)[0]
```
步骤4:拆分数据集
我们需要将数据集拆分到训练集和测试集中,以便在训练模型时对其进行评估。我们将使用train_test_split函数来实现此功能。
```python
#将数据集拆分到训练集和测试集中
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
```
步骤5:训练模型
使用MultinomialNB可以训练我们的模型。MultinomialNB是一种常用于文本分类的朴素贝叶斯算法。
```python
#训练模型
clf = MultinomialNB()
clf.fit(X_train, y_train)
```
步骤6:评估模型
我们将使用accuracy_score来评估模型的准确性。
```python
#评估模型
y_pred = clf.predict(X_test)
accuracy = accuracy_score(y_test, y_pred)
print("Accuracy:", accuracy)
```
完整的代码如下所示:
```python
import pandas as pd
from sklearn.feature_extraction.text import CountVectorizer
from sklearn.naive_bayes import MultinomialNB
from sklearn.metrics import accuracy_score
from sklearn.model_selection import train_test_split
#读取数据
data = pd.read_csv('data.csv')
#查看前五个文本数据
print(data.head())
#使用CountVectorizer创建特征向量
vectorizer = CountVectorizer(stop_words='english')
X = vectorizer.fit_transform(data.text)
#将目标变量转换为数字
y = pd.factorize(data.label)[0]
#将数据集拆分到训练集和测试集中
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
#训练模型
clf = MultinomialNB()
clf.fit(X_train, y_train)
#评估模型
y_pred = clf.predict(X_test)
accuracy = accuracy_score(y_test, y_pred)
print("Accuracy:", accuracy)
```