其他分享
首页 > 其他分享> > 《统计学习方法》啃书辅助:第 4 章 朴素贝叶斯法

《统计学习方法》啃书辅助:第 4 章 朴素贝叶斯法

作者:互联网

朴素贝叶斯法对数据的要求:数据满足特征条件独立假设,即用于分类的特征在类确定的条件下都是条件独立的。

朴素贝叶斯法的学习过程:基于特征条件独立假设学习输入输出的联合概率分布。即通过先验概率分布 P ( Y = c k ) P(Y=c_k) P(Y=ck​) 和条件概率分布 P ( X ( j ) = x ( j ) ∣ Y = c k ) P(X^{(j)}=x^{(j)}|Y=c_k) P(X(j)=x(j)∣Y=ck​) 实现对联合概率分布 P ( X , Y ) P(X,Y) P(X,Y) 的估计。

朴素贝叶斯法的预测过程:基于模型,对给定的输入 x,利用贝叶斯定理求出后验概率最大的输出 y。

朴素贝叶斯法的类别划分

朴素贝叶斯法的主要优点:学习与预测的效率很高,易于实现。

朴素贝叶斯法的主要缺点:因为特征条件独立假设很强,分类的性能不一定很高。

【扩展阅读】sklearn 中文文档:1.9 朴素贝叶斯


【补充说明】书中介绍的朴素贝叶斯法只适用于离散型特征,如果是连续型特征,还需要考虑连续型特征的概率密度函数。详见“延伸阅读”。

【补充说明】这里的“特征条件独立假设”即下文中“朴素贝叶斯法对条件概率分布作出的条件独立性假设”。

贝叶斯定理

首先根据条件概率的定义,可得如下定理。

【定理 1】乘法定理 (来自浙江大学《概率论与数理统计》第四版 P. 16)

设 P ( A ) > 0 P(A)>0 P(A)>0,则有

P ( A B ) = P ( B ∣ A ) P ( A ) P(AB) = P(B|A) P(A) P(AB)=P(B∣A)P(A)

接着给出划分的定义。

【定义 2】划分 (来自浙江大学《概率论与数理统计》第四版 P. 17)

设 S 为试验 E 的样本空间, B 1 , B 2 , ⋯   , B n B_1,B_2,\cdots,B_n B1​,B2​,⋯,Bn​ 为 E 的一组事件。若

  1. B i B j = ∅ B_i B_j = \varnothing Bi​Bj​=∅, i ≠ j i \ne j i​=j, i , j = 1 , 2 , ⋯   , n i,j=1,2,\cdots,n i,j=1,2,⋯,n;
  2. B 1 ∪ B 2 ∪ ⋯ ∪ B n = S B_1 \cup B_2 \cup \cdots \cup B_n = S B1​∪B2​∪⋯∪Bn​=S,

则称 B 1 , B 2 , ⋯   , B n B_1,B_2,\cdots,B_n B1​,B2​,⋯,Bn​ 为样本空间 S 的一个划分。

根据划分的定义,我们知道若 B 1 , B 2 , ⋯   , B n B_1,B_2,\cdots,B_n B1​,B2​,⋯,Bn​ 为样本空间的一个划分,那么,对每次试验,事件 B 1 , B 2 , ⋯   , B n B_1,B_2,\cdots,B_n B1​,B2​,⋯,Bn​ 中必有一个且仅有一个发生。于是得到全概率公式和贝叶斯公式。

【定理 3】全概率公式 (来自浙江大学《概率论与数理统计》第四版 P. 18)

设试验 E 的样本空间为 S,A 为 E 的事件, B 1 , B 2 , ⋯   , B n B_1,B_2,\cdots,B_n B1​,B2​,⋯,Bn​ 为 S 的一个划分,且 P ( B i ) > 0   ( i = 1 , 2 ⋯   , n ) P(B_i)>0 \ (i=1,2\cdots,n) P(Bi​)>0 (i=1,2⋯,n),则

P ( A ) = P ( A ∣ B 1 ) P ( B 1 ) + P ( A ∣ B 2 ) P ( B 2 ) + ⋯ + P ( A ∣ B n ) P ( B n ) P(A) = P(A|B_1) P(B_1) + P(A|B_2) P(B_2) + \cdots + P(A|B_n) P(B_n) P(A)=P(A∣B1​)P(B1​)+P(A∣B2​)P(B2​)+⋯+P(A∣Bn​)P(Bn​)

【定理 4】贝叶斯公式 (来自浙江大学《概率论与数理统计》第四版 P. 18)

设试验 E 的样本空间为 S,A 为 E 的事件, B 1 , B 2 , ⋯   , B n B_1,B_2,\cdots,B_n B1​,B2​,⋯,Bn​ 为 S 的一个划分,且 P ( A ) > 0 P(A)>0 P(A)>0, P ( B i ) > 0   ( i = 1 , 2 ⋯   , n ) P(B_i)>0 \ (i=1,2\cdots,n) P(Bi​)>0 (i=1,2⋯,n),则

P ( B i ∣ A ) = P ( A ∣ B i ) P ( B i ) ∑ j = 1 n P ( A ∣ B j ) P ( B j ) ,   i = 1 , 2 , ⋯   , n P(B_i|A) = \frac{P(A|B_i) P(B_i)}{\sum_{j=1}^n P(A|B_j) P(B_j)}, \ i=1,2,\cdots,n P(Bi​∣A)=∑j=1n​P(A∣Bj​)P(Bj​)P(A∣Bi​)P(Bi​)​, i=1,2,⋯,n

4.1.1 朴素贝叶斯法的学习与分类-基本方法

【补充说明】作出特征条件独立假设,即条件独立性的假设后,参数规模降为 K ∑ j = 1 n S j K \sum_{j=1}^n S_j K∑j=1n​Sj​。

【补充说明】 a r g m a x argmax argmax 函数用于计算因变量取得最大值时对应的自变量的点集。求函数 f ( x ) f(x) f(x) 取得最大值时对应的自变量 x x x 的点集可以写作

a r g max ⁡ x f ( x ) arg \max_{x} f(x) argxmax​f(x)

【补充说明】在公式 4.4、4.5、4.6 中,等号右侧求和符号内的 k 并不影响求和符号外的 k,但是相同符号会带来些许歧义,或许可以将分母中的 k 改写为其他字母,例如可以将公式 4.4 改写为下式:

P ( Y = c k ∣ X = x ) = P ( X = x ∣ Y = c k ) P ( Y = c k ) ∑ i P ( X = x ∣ Y = c i ) P ( Y = c i ) P(Y=c_k|X=x)=\frac{P(X=x|Y=c_k)P(Y=c_k)}{\sum_i P(X=x|Y=c_i)P(Y=c_i)} P(Y=ck​∣X=x)=∑i​P(X=x∣Y=ci​)P(Y=ci​)P(X=x∣Y=ck​)P(Y=ck​)​

4.1.2 朴素贝叶斯法后验概率最大化的含义

【补充说明】“期望风险”的前置知识在“1.3.2 策略”。

期望的下标符号的含义

期望的下标符号似乎没有确切的定义。在【stackexchange 的问题:Subscript notation in expectations】中,以及使用了期望的下标符号的【wikipedia 词条:Law of total expectation】现在也已经没有期望的下标符号了。在@Alecos Papadopoulos的回答中,提到有两种可能:

第一种是将下标符号中的变量作为条件,即

E X [ L ( Y , f ( X ) ) ] = E [ L ( Y , f ( X ) ) ∣ X ] E_X [L(Y,f(X))] = E[L(Y,f(X))|X] EX​[L(Y,f(X))]=E[L(Y,f(X))∣X]

第二种是将下标符号中的变量用作计算平均,即

E X [ L ( Y , f ( X ) ) ] = ∑ x ∈ X L ( Y , f ( X ) ) P ( X = x ) E_X [L(Y,f(X))] = \sum_{x \in X} L(Y,f(X)) P(X=x) EX​[L(Y,f(X))]=x∈X∑​L(Y,f(X))P(X=x)

显然,书中所使用的期望的下标符号是第二种含义。于是下式

R e x p ( f ) = E X ∑ k = 1 K [ L ( c k , f ( X ) ) ] P ( c k ∣ X ) R_{exp}(f)=E_X \sum_{k=1}^K [L(c_k,f(X))]P(c_k|X) Rexp​(f)=EX​k=1∑K​[L(ck​,f(X))]P(ck​∣X)

可以理解为

KaTeX parse error: Invalid delimiter: '{"type":"ordgroup","mode":"math","loc":{"lexer":{"input":"\nR_{exp}(f)=E \\sum_{x \\in X} \\bigg{[} \\sum_{k=1}^K [L(c_k,f(X))]P(c_k|X=x) \\bigg{]} P(X=x)\n","settings":{"displayMode":true,"leqno":false,"fleqn":false,"throwOnError":true,"errorColor":"#cc0000","macros":{},"colorIsTextColor":false,"strict":"warn","maxSize":null,"maxExpand":1000,"allowedProtocols":["http","https","mailto","_relative"]},"tokenRegex":{},"catcodes":{"%":14}},"start":34,"end":37},"body":[{"type":"atom","mode":"math","family":"open","loc":{"lexer":{"input":"\nR_{exp}(f)=E \\sum_{x \\in X} \\bigg{[} \\sum_{k=1}^K [L(c_k,f(X))]P(c_k|X=x) \\bigg{]} P(X=x)\n","settings":{"displayMode":true,"leqno":false,"fleqn":false,"throwOnError":true,"errorColor":"#cc0000","macros":{},"colorIsTextColor":false,"strict":"warn","maxSize":null,"maxExpand":1000,"allowedProtocols":["http","https","mailto","_relative"]},"tokenRegex":{},"catcodes":{"%":14}},"start":35,"end":36},"text":"["}]}' after '\bigg' at position 35: …{x \in X} \bigg{̲[̲}̲ \sum_{k=1}^K […

根据期望风险最小化准则推导后验概率最大化准则 (不使用期望的下标符号)

设 X 为 n 维向量的集合,类标记集合 Y 有 k 个值。已知期望是对联合分布 P ( X , Y ) P(X,Y) P(X,Y) 取的,所以期望风险函数可以写作

KaTeX parse error: No such environment: align at position 8: \begin{̲a̲l̲i̲g̲n̲}̲ R_{exp}(f) & =…

因为特征条件独立假设,所以为了使期望风险最小化,只需对 X = x X=x X=x 逐个极小化,后续证明与书中相同,不再赘述。

4.2 朴素贝叶斯法的参数估计

极大似然估计

极大似然估计,也称最大似然估计,其核心思想是:在已经得到试验结果的情况下,我们应该寻找使这个结果出现的可能性最大的参数值作为参数的估计值。

朴素贝叶斯算法(原生 Python 实现)

源码地址】code.naive_bayes.NaiveBayesAlgorithmHashmap(哈希表存储先验概率和条件概率)

# https://github.com/ChangxingJiang/Data-Mining-HandBook/blob/master/code/naive_bayes/_naive_bayes_algorithm_hashmap.py

import collections

class NaiveBayesAlgorithmHashmap:
    """朴素贝叶斯算法(仅支持离散型数据)"""

    def __init__(self, x, y):
        self.N = len(x)  # 样本数
        self.n = len(x[0])  # 维度数

        count1 = collections.Counter(y)  # 先验概率的分子,条件概率的分母
        count2 = [collections.Counter() for _ in range(self.n)]  # 条件概率的分子
        for i in range(self.N):
            for j in range(self.n):
                count2[j][(x[i][j], y[i])] += 1

        # 计算先验概率和条件概率
        self.prior = {k: v / self.N for k, v in count1.items()}
        self.conditional = [{k: v / count1[k[1]] for k, v in count2[j].items()} for j in range(self.n)]

    def predict(self, x):
        best_y, best_score = 0, 0
        for y in self.prior:
            score = self.prior[y]
            for j in range(self.n):
                score *= self.conditional[j][(x[j], y)]
            if score > best_score:
                best_y, best_score = y, score
        return best_y

二维数组存储先验概率和条件概率。

源码地址】code.naive_bayes.NaiveBayesAlgorithmArray

# https://github.com/ChangxingJiang/Data-Mining-HandBook/blob/master/code/naive_bayes/_naive_bayes_algorithm_array.py

class NaiveBayesAlgorithmArray:
    """朴素贝叶斯算法(仅支持离散型数据)"""

    def __init__(self, x, y):
        self.N = len(x)  # 样本数 —— 先验概率的分母
        self.n = len(x[0])  # 维度数

        # 坐标压缩(将可能存在的非数值的特征及类别转换为数值)
        self.y_list = list(set(y))
        self.y_mapping = {c: i for i, c in enumerate(self.y_list)}
        self.x_list = [list(set(x[i][j] for i in range(self.N))) for j in range(self.n)]
        self.x_mapping = [{c: i for i, c in enumerate(self.x_list[j])} for j in range(self.n)]

        # 计算可能取值数
        self.K = len(self.y_list)  # Y的可能取值数
        self.Sj = [len(self.x_list[j]) for j in range(self.n)]  # X各个特征的可能取值数

        # 计算:P(Y=ck) —— 先验概率的分子、条件概率的分母
        table1 = [0] * self.K
        for i in range(self.N):
            table1[self.y_mapping[y[i]]] += 1

        # 计算:P(Xj=ajl|Y=ck) —— 条件概率的分子
        table2 = [[[0] * self.Sj[j] for _ in range(self.K)] for j in range(self.n)]
        for i in range(self.N):
            for j in range(self.n):
                table2[j][self.y_mapping[y[i]]][self.x_mapping[j][x[i][j]]] += 1

        # 计算先验概率
        self.prior = [0.0] * self.K
        for k in range(self.K):
            self.prior[k] = table1[k] / self.N

        # 计算条件概率
        self.conditional = [[[0.0] * self.Sj[j] for _ in range(self.K)] for j in range(self.n)]
        for j in range(self.n):
            for k in range(self.K):
                for t in range(self.Sj[j]):
                    self.conditional[j][k][t] = table2[j][k][t] / table1[k]

    def predict(self, x):
        best_y, best_score = 0, 0
        for k in range(self.K):
            score = self.prior[k]
            for j in range(self.n):
                if x[j] in self.x_mapping[j]:
                    score *= self.conditional[j][k][self.x_mapping[j][x[j]]]
                else:
                    score *= 0
            if score > best_score:
                best_y, best_score = self.y_list[k], score
        return best_y

源码地址】测试

>>> from code.naive_bayes import NaiveBayesAlgorithmArray
>>> from code.naive_bayes import NaiveBayesAlgorithmHashmap
>>> dataset = [[(1, "S"), (1, "M"), (1, "M"), (1, "S"), (1, "S"),
...             (2, "S"), (2, "M"), (2, "M"), (2, "L"), (2, "L"),
...             (3, "L"), (3, "M"), (3, "M"), (3, "L"), (3, "L")],
...            [-1, -1, 1, 1, -1, -1, -1, 1, 1, 1, 1, 1, 1, 1, -1]]
>>> naive_bayes_1 = NaiveBayesAlgorithmHashmap(*dataset)
>>> naive_bayes_1.predict([2, "S"])
-1
>>> naive_bayes_2 = NaiveBayesAlgorithmArray(*dataset)
>>> naive_bayes_2.predict([2, "S"])
-1

贝叶斯估计(原生 Python 实现)

源码地址】code.naive_bayes.NaiveBayesAlgorithmWithSmoothing

# https://github.com/ChangxingJiang/Data-Mining-HandBook/blob/master/code/naive_bayes/_naive_bayes_algorithm_with_smoothing.py

class NaiveBayesAlgorithmWithSmoothing:
    """贝叶斯估计(仅支持离散型数据)"""

    def __init__(self, x, y, l=1):
        self.N = len(x)  # 样本数 —— 先验概率的分母
        self.n = len(x[0])  # 维度数
        self.l = l  # 贝叶斯估计的lambda参数

        # 坐标压缩(将可能存在的非数值的特征及类别转换为数值)
        self.y_list = list(set(y))
        self.y_mapping = {c: i for i, c in enumerate(self.y_list)}
        self.x_list = [list(set(x[i][j] for i in range(self.N))) for j in range(self.n)]
        self.x_mapping = [{c: i for i, c in enumerate(self.x_list[j])} for j in range(self.n)]

        # 计算可能取值数
        self.K = len(self.y_list)  # Y的可能取值数
        self.Sj = [len(self.x_list[j]) for j in range(self.n)]  # X各个特征的可能取值数

        # 计算:P(Y=ck) —— 先验概率的分子、条件概率的分母
        self.table1 = [0] * self.K
        for i in range(self.N):
            self.table1[self.y_mapping[y[i]]] += 1

        # 计算:P(Xj=ajl|Y=ck) —— 条件概率的分子
        self.table2 = [[[0] * self.Sj[j] for _ in range(self.K)] for j in range(self.n)]
        for i in range(self.N):
            for j in range(self.n):
                self.table2[j][self.y_mapping[y[i]]][self.x_mapping[j][x[i][j]]] += 1

        # 计算先验概率
        self.prior = [0.0] * self.K
        for k in range(self.K):
            self.prior[k] = (self.table1[k] + self.l) / (self.N + self.l * self.K)

        # 计算条件概率
        self.conditional = [[[0.0] * self.Sj[j] for _ in range(self.K)] for j in range(self.n)]
        for j in range(self.n):
            for k in range(self.K):
                for t in range(self.Sj[j]):
                    self.conditional[j][k][t] = (self.table2[j][k][t] + self.l) / (self.table1[k] + self.l * self.Sj[j])

    def predict(self, x):
        best_y, best_score = 0, 0
        for k in range(self.K):
            score = self.prior[k]
            for j in range(self.n):
                if x[j] in self.x_mapping[j]:
                    score *= self.conditional[j][k][self.x_mapping[j][x[j]]]
                else:
                    score *= self.l / (self.table1[k] + self.l * self.Sj[j])
            if score > best_score:
                best_y, best_score = self.y_list[k], score
        return best_y

源码地址】测试

>>> from code.naive_bayes import NaiveBayesAlgorithmWithSmoothing
>>> dataset = [[(1, "S"), (1, "M"), (1, "M"), (1, "S"), (1, "S"),
                (2, "S"), (2, "M"), (2, "M"), (2, "L"), (2, "L"),
                (3, "L"), (3, "M"), (3, "M"), (3, "L"), (3, "L")],
               [-1, -1, 1, 1, -1, -1, -1, 1, 1, 1, 1, 1, 1, 1, -1]]
>>> naive_bayes = NaiveBayesAlgorithmWithSmoothing(*dataset)
>>> naive_bayes.predict([2, "S"])
-1

延伸阅读

以上的朴素贝叶斯法只适用于离散型特征,如果是连续型特征,还需要考虑连续型特征的概率密度函数。当假设连续型特征服从不同的参数时,有不同的方法:

支持连续型特征的朴素贝叶斯(sklearn 实现)

源码地址】测试

>>> from sklearn.datasets import load_breast_cancer
>>> from sklearn.model_selection import train_test_split
>>> from sklearn.naive_bayes import GaussianNB
>>> from sklearn.naive_bayes import MultinomialNB
>>> from sklearn.naive_bayes import ComplementNB
>>> from sklearn.naive_bayes import BernoulliNB

>>> X, Y = load_breast_cancer(return_X_y=True)
>>> x1, x2, y1, y2 = train_test_split(X, Y, test_size=1 / 3, random_state=0)

>>> # 高斯朴素贝叶斯
>>> gnb = GaussianNB()
>>> gnb.fit(x1, y1)
>>> gnb.score(x2, y2)
0.9210526315789473

>>> # 多项分布朴素贝叶斯
>>> mnb = MultinomialNB()
>>> mnb.fit(x1, y1)
>>> mnb.score(x2, y2)
0.9105263157894737

>>> # 补充朴素贝叶斯
>>> mnb = ComplementNB()
>>> mnb.fit(x1, y1)
>>> mnb.score(x2, y2)
0.9052631578947369

>>> # 伯努利朴素贝叶斯
>>> bnb = BernoulliNB()
>>> bnb.fit(x1, y1)
>>> bnb.score(x2, y2)
0.6421052631578947

标签:self,啃书,贝叶斯,range,score,bayes,naive,朴素
来源: https://blog.csdn.net/Changxing_J/article/details/118003388