其他分享
首页 > 其他分享> > 贝叶斯分类器

贝叶斯分类器

作者:互联网

Bayesian Decision Theory

贝叶斯风险 Bayes Error

For any xRdx \in R^dx∈Rd
η(x)=P(Y=1X=x)=E(YX=x)\eta(x) = P(Y=1|X=x) = E(Y|X = x)η(x)=P(Y=1∣X=x)=E(Y∣X=x)
对于二分类问题,所有分类函数中,贝叶斯分类器的损失最小

MLE——Maximum Likelihood Estimator

用参数的方法估计似然:先假定具有某种确定的概率分布形式,再基于训练样本对概率分布的参数进行估计,记P(xc)P(x|c)P(x∣c)为P(xθc)P(x|\theta_c)P(x∣θc​)——模型训练的过程就是参数估计的过程——用对数似然的方法
书上有一个正态分布的例子

Naive Bayes Classifier

假定ddd维向量xxx的各个维数之间是独立的,所以P(x1,x2,...,xdc)=P(x1c)P(x2c)...P(xdc)P(x_1,x_2,...,x_d|c) = P(x_1|c)P(x_2|c)...P(x_d|c)P(x1​,x2​,...,xd​∣c)=P(x1​∣c)P(x2​∣c)...P(xd​∣c)
hnb(x)=argmincYP(c)i=1dP(xic)h_{nb}(x)=\arg \min_{c\in Y}P(c)\prod_{i=1}^dP(x_i|c)hnb​(x)=argc∈Ymin​P(c)i=1∏d​P(xi​∣c)
为了避免其他属性懈怠的信息被训练集中未出现的属性值抹去,估计概率值的时候通常要进行smoothing,常用拉普拉斯修正

Semi-naive Bayes Classifiers

就是有些特征是相关的,不能完全独立算
ODE(One-Dependent Estimator)独依赖估计:假设每个属性在类别之外最多依赖于一个其他属性
SPODE(Super-Parent ODE)超父:假设所有属性都依赖同一个属性(超父)
TAN:在最大带权生成树的算法基础上转化成树的形式(没有环,路径唯一)

AODE集成:把弱的或者错的学习器集合在一起就会变强,model average的思想——尝试将每个属性都作为超父来构建SPODE,然后将有足够训练数据支撑的SPODE集成起来作为最终结果

Bayes Network

有向无环图(Directed Acyclic Graph,DAG) 某两点之间的路径不唯一,不是树结构
v结构的特殊性

EM al

标签:...,xd,贝叶斯,分类器,ij,Bayes,arg,属性
来源: https://blog.csdn.net/weixin_42302446/article/details/100728382