编程语言
首页 > 编程语言> > 05 机器学习 - 朴素贝叶斯分类算法原理

05 机器学习 - 朴素贝叶斯分类算法原理

作者:互联网

1.概述

注:朴素的意思是条件概率独立性,此处要想真正理解,需要有概率论的基础知识

P(A|x1x2x3x4)=p(A|x1)*p(A|x2)p(A|x3)p(A|x4)则为条件概率独立
P(xy|z)=p(xyz)/p(z)=p(xz)/p(z)*p(yz)/p(z)

2.算法思想

朴素贝叶斯的思想是这样的:

如果一个事物在一些属性条件发生的情况下,事物属于A的概率 > 属于B的概率,则判定事物属于A

通俗来说比如,你在街上看到一个黑人,我让你猜这哥们哪里来的,你十有八九猜非洲。为什么呢? 在你的脑海中,有这么一个判断流程:

1.这个人的肤色是黑色 <特征>
2.黑色人种是非洲人的概率最高 <条件概率:黑色条件下是非洲人的概率>
3.没有其他辅助信息的情况下,最好的判断就是非洲人

这就是朴素贝叶斯的思想基础。

再扩展一下,假如在街上看到一个黑人讲英语,那我们是怎么去判断他来自于哪里?下面提取特征:

肤色: 黑
语言: 英语

在我们的自然思维方式中,就会这样判断:

我们的判断结果就是:此人来自美国!

其蕴含的数学原理如下:

p(A|xy)=p(Axy)/p(xy)=p(Axy)/p(x)p(y)=p(A)/p(x)*p(A)/p(y)* p(xy)/p(xy)=p(A|x)p(A|y)

在这里插入图片描述

3. 算法要点

3.1 算法步骤

  1. 分解各类先验样本数据中的特征
  2. 计算各类数据中,各特征的条件概率(比如:特征1出现的情况下,属于A类的概率p(A|特征1),属于B类的概率p(B|特征1),属于C类的概率p(C|特征1)…)
  3. 分解待分类数据中的特征(特征1、特征2、特征3、特征4…)
  4. 计算各特征的各条件概率的乘积,如下所示:
    判断为A类的概率:p(A|特征1)*p(A|特征2)*p(A|特征3)*p(A|特征4)
    判断为B类的概率:p(B|特征1)*p(B|特征2)*p(B|特征3)*p(B|特征4)
    判断为C类的概率:p(C|特征1)*p(C|特征2)*p(C|特征3)*p(C|特征4)
  5. 结果中的最大值就是该样本所属的类别

3.2 算法应用举例

大众点评、淘宝等电商上都会有大量的用户评论,比如:

序号 评论 标志
1 衣服质量太差了!!!!颜色根本不纯!!! 0
2 我有一有种上当受骗的感觉!!!! 0
3 质量太差,衣服拿到手感觉像旧货!!! 0
4 上身漂亮,合身,很帅,给卖家点赞 1
5 穿上衣服帅呆了,给点一万个赞 1
6 我在他家买了三件衣服!!!!质量都很差! 0

其中1/2/3/6是差评,4/5是好评
现在需要使用朴素贝叶斯分类算法来自动分类其他的评论,比如:

a. 这么差的衣服以后再也不买了
b. 帅,有逼格
……

3.3 算法应用流程

1.分解出先验数据中的各特征(即分词,比如“衣服”“质量太差”“差”“不纯”“帅”“漂亮”,“赞”……)

2.计算各类别(好评、差评)中,各特征的条件概率(比如 p(“衣服”|差评)、p(“衣服”|好评)、p(“差”|好评) 、p(“差”|差评)……)

3.分解出待分类样本的各特征(比如分解a: “差” “衣服” ……)

4.计算类别概率

P(好评) = p(好评|“差”) *p(好评|“衣服”)*……
P(差评) = p(差评|“差”) *p(差评|“衣服”)*……

5.显然P(差评)的结果值更大,因此a被判别为“差评”

标签:概率,05,特征,分类,差评,贝叶斯,算法
来源: https://blog.51cto.com/u_15294985/3007722