机器学习之朴素贝叶斯分类

简介: 朴素贝叶斯分类所有贝叶斯分类都是基于贝叶斯定理,朴素贝叶斯分类是贝叶斯分类中运用广泛简单的一种,另外,它还基于特征条件独立假设。

朴素贝叶斯分类

所有贝叶斯分类都是基于贝叶斯定理,朴素贝叶斯分类是贝叶斯分类中运用广泛简单的一种,另外,它还基于特征条件独立假设。

贝叶斯定理

贝叶斯定理是计算条件概率的公式,条件概率即是事件B发生的前提下事件A发生的概率,记作P(A|B),叫做事件B发生的情况下A的条件概率。

公式为:P(B|A)=P(A|B)P(B)P(A)

公式大致推导:
这里写图片描述

如图,有P(A|B)=P(AB)P(B)

同样,也有P(B|A)=P(AB)P(A)

于是,P(A|B)P(B)=P(B|A)P(A)

得到,P(B|A)=P(A|B)P(B)P(A)

另外,根据全概率公式还有P(A)=ni=1P(Bi)P(A|Bi)

所以公式还可以写成:
P(B|A)=P(A|B)P(B)ni=1P(Bi)P(A|Bi)

特征条件独立假设

样本集(X,Y),每个样本x有n维特征,即x=(x1,x2,...,xn),类标记集合y=(y1,y2,...,yn)

此时为求最大的后验概率,根据贝叶斯定理和全概率公式有,

P(yk|x)=P(x|yk)P(yk)kP(yk)P(x|yk)

对于P(x|yk)=P(x1,x2,...,xn|yk),假如xi可取的值个数为Si个,则参数个数为kni=1Si

为降低参数规模,提出特征条件独立假设,它假设了n维特征(x1,x2,...,xn)互相独立,于是

P(x|yk)=P(x1,x2,...,xn|yk)=ni=1P(xi|yk),这时参数个数为ni=1Sik

核心思想

基于特征条件独立假设,对给定的训练样本集来学习输入输出的联合概率分布,得到一个模型,然后给定一个输入x,利用贝叶斯定理求出后验概率最大的输出y。

即对于一个输入x,根据概率角度就是求x属于哪个类别的概率最大,也就是说P(y1|x)P(y2|x)、…P(yk|x)中哪个后验概率最大就属于哪个类。

在特征条件独立假设下,有
P(yk|x)=ni=1P(xi|yk)P(yk)kP(yk)ni=1P(xi|yk)

其中分母对于所有分类yk都是相同的,所以其实就是求分子最大值对应的分类。即ni=1P(xi|yk)P(yk)值最大对应的分类。

期望风险

反应到期望风险上就是:将输入实例分配到后验概率最大的类中就是期望风险最小化。

极大似然估计&贝叶斯估计

对于训练样本,朴素贝叶斯法的学习其实就是估计先验概率和条件概率。极大似然估计是一种参数估计的方法,根据训练样本推算出参数的大概值,因为在极大似然估计的思想看来,某个参数能使样本出现的概率最大,那就把这个参数作为真实值。

由于极大似然估计可能会出现概率值为0的情况,这会影响到后验概率的计算结果,为解决这个问题引入贝叶斯估计,即在计算先验概率时在分子加一个λ,分母加一个λ * 类别数,而计算条件概率时在分子加一个λ,分母加一个λ * Si(其中Sixi可取的值个数)。当λ取1时称为拉普拉斯平滑。而当λ为0时即是极大似然估计。

大概流程

  1. 待分类项x=(x1,x2,...,xn)
  2. 类别集合y=(y1,y2,...,yn)
  3. 分别求P(y1|x)P(y2|x)、…P(yk|x),取最大的值对应的分类yk
  4. 要求3就需要训练样本集(X,Y),再根据样本集完成下面5到7的操作。
  5. 根据极大似然估计或贝叶斯估计计算先验概率和条件概率,即P(xi|yk)P(yk)
  6. 由特征条件独立假设后对应公式ni=1P(xi|yk)P(yk)求得最大值。
  7. 得到最大值对应的分类。

实现代码

from numpy import *

dataSet = [[0,0],[0,0],[0,0],[0,0],[1,0],[0,0],[1,0],[0,0],[1,0],[1,0],[1,1],[1,0],[1,1],[1,1],[1,1],[1,1],[1,1],[1,1]]
ySet = [0,0,1,0,0,1,0,1,0,1,0,1,0,1,0,1,0,1]


def train():
    dataNum = len(dataSet)
    featureNum = len(dataSet[0])
    p0Num = ones(featureNum)
    p1Num = ones(featureNum)
    p0Denom = 2.0
    p1Denom = 2.0
    p0 = 0
    for i in range(dataNum):
        if ySet[i] == 1:
            p1Num += dataSet[i]
            p1Denom += sum(dataSet[i])
        else:
            p0 += 1
            p0Num += dataSet[i]
            p0Denom += sum(dataSet[i])
    p0Rate = p0 / dataNum
    p0Vec = log(p0Num / p0Denom)
    p1Vec = log(p1Num / p1Denom)
    return p0Rate, p0Vec, p1Vec

p0Rate, p0Vec, p1Vec = train()
test = [1,0]
p1 = sum(test * p1Vec) + log(1.0 - p0Rate)
p0 = sum(test * p0Vec) + log(p0Rate)
if p1 > p0:
    print(1)
else:
    print(0)

========广告时间========

鄙人的新书《Tomcat内核设计剖析》已经在京东销售了,有需要的朋友可以到 https://item.jd.com/12185360.html 进行预定。感谢各位朋友。

为什么写《Tomcat内核设计剖析》

=========================
欢迎关注:

这里写图片描述

目录
相关文章
|
1月前
|
机器学习/深度学习 人工智能 算法
【人工智能】机器学习、分类问题和逻辑回归的基本概念、步骤、特点以及多分类问题的处理方法
机器学习是人工智能的一个核心分支,它专注于开发算法,使计算机系统能够自动地从数据中学习并改进其性能,而无需进行明确的编程。这些算法能够识别数据中的模式,并利用这些模式来做出预测或决策。机器学习的主要应用领域包括自然语言处理、计算机视觉、推荐系统、金融预测、医疗诊断等。
38 1
|
1月前
|
机器学习/深度学习 算法
【机器学习】简单解释贝叶斯公式和朴素贝叶斯分类?(面试回答)
简要解释了贝叶斯公式及其在朴素贝叶斯分类算法中的应用,包括算法的基本原理和步骤。
54 1
|
1月前
|
机器学习/深度学习
如何用贝叶斯方法来解决机器学习中的分类问题?
如何用贝叶斯方法来解决机器学习中的分类问题?
|
1月前
|
机器学习/深度学习 数据采集 自然语言处理
【NLP】讯飞英文学术论文分类挑战赛Top10开源多方案–4 机器学习LGB 方案
在讯飞英文学术论文分类挑战赛中使用LightGBM模型进行文本分类的方案,包括数据预处理、特征提取、模型训练及多折交叉验证等步骤,并提供了相关的代码实现。
28 0
|
3月前
|
机器学习/深度学习 算法
机器学习方法分类
【6月更文挑战第14天】机器学习方法分类。
50 2
|
3月前
|
机器学习/深度学习 算法 大数据
【机器学习】朴素贝叶斯算法及其应用探索
在机器学习的广阔领域中,朴素贝叶斯分类器以其实现简单、计算高效和解释性强等特点,成为了一颗璀璨的明星。尽管名字中带有“朴素”二字,它在文本分类、垃圾邮件过滤、情感分析等多个领域展现出了不凡的效果。本文将深入浅出地介绍朴素贝叶斯的基本原理、数学推导、优缺点以及实际应用案例,旨在为读者构建一个全面而深刻的理解框架。
135 1
|
3月前
|
机器学习/深度学习 分布式计算 算法
在机器学习项目中,选择算法涉及问题类型识别(如回归、分类、聚类、强化学习)
【6月更文挑战第28天】在机器学习项目中,选择算法涉及问题类型识别(如回归、分类、聚类、强化学习)、数据规模与特性(大数据可能适合分布式算法或深度学习)、性能需求(准确性、速度、可解释性)、资源限制(计算与内存)、领域知识应用以及实验验证(交叉验证、模型比较)。迭代过程包括数据探索、模型构建、评估和优化,结合业务需求进行决策。
49 0
|
4月前
|
机器学习/深度学习 数据采集 人工智能
使用Python和Scikit-learn实现机器学习分类任务
使用Python和Scikit-learn实现机器学习分类任务
103 1
|
3月前
|
机器学习/深度学习 数据采集 自然语言处理
【机器学习】逻辑回归:智能垃圾邮件分类实例
【机器学习】逻辑回归:智能垃圾邮件分类实例
133 0
|
3月前
|
机器学习/深度学习 算法 数据挖掘
【机器学习】Voting集成学习算法:分类任务中的新利器
【机器学习】Voting集成学习算法:分类任务中的新利器
91 0