其他分享
首页 > 其他分享> > 隐马尔可夫模型 (hidden Markov model, HMM)

隐马尔可夫模型 (hidden Markov model, HMM)

作者:互联网

目录

隐马尔可夫模型的基本概念

隐马尔可夫模型的定义


隐马尔可夫模型的形式定义


隐马尔可夫模型的两个基本假设


在这里插入图片描述

观测序列的生成过程

在这里插入图片描述

隐马尔可夫模型的 3 个基本问题


标注问题

概率计算算法

直接计算法

前向算法 (forward algorithm)

在这里插入图片描述

在这里插入图片描述

后向算法 (backward algorithm)

在这里插入图片描述

在这里插入图片描述

一些概率与期望值的计算



学习算法

监督学习方法


Baum-Welch 算法 (无监督学习方法)


E 步: 求 Q Q Q 函数 Q ( λ , λ ˉ ) Q(\lambda,\bar\lambda) Q(λ,λˉ)

max ⁡ λ E I [ log ⁡ P ( O , I ∣ λ ) ∣ O , λ ˉ ] = max ⁡ λ ∑ I log ⁡ P ( O , I ∣ λ ) P ( I ∣ O , λ ˉ ) = max ⁡ λ ∑ I log ⁡ P ( O , I ∣ λ ) P ( O , I ∣ λ ˉ ) P ( O ∣ λ ˉ ) = max ⁡ λ ∑ I log ⁡ P ( O , I ∣ λ ) P ( O , I ∣ λ ˉ ) \begin{aligned} \max_\lambda E_I[\log P(O,I\mid\lambda)\mid O,\bar\lambda] &=\max_\lambda \sum_{I} \log P(O, I \mid \lambda) P(I \mid O,\bar{\lambda}) \\&=\max_\lambda \sum_{I} \log P(O, I \mid \lambda) \frac{P(O, I \mid \bar{\lambda})}{P(O\mid\bar\lambda)} \\&=\max_\lambda \sum_{I} \log P(O, I \mid \lambda) {P(O, I \mid \bar{\lambda})} \end{aligned} λmax​EI​[logP(O,I∣λ)∣O,λˉ]​=λmax​I∑​logP(O,I∣λ)P(I∣O,λˉ)=λmax​I∑​logP(O,I∣λ)P(O∣λˉ)P(O,I∣λˉ)​=λmax​I∑​logP(O,I∣λ)P(O,I∣λˉ)​


M 步: 极大化 Q ( λ , λ ˉ ) Q(λ,\bar\lambda) Q(λ,λˉ) 求模型参数 A , B , π A,B,\pi A,B,π


Baum-Welch 算法

在这里插入图片描述

预测算法

近似算法


维特比算法 (Viterbi algorithm)


Notation


维特比算法

在这里插入图片描述

标签:...,概率,状态,观测,HMM,马尔可夫,序列,hidden,Markov
来源: https://blog.csdn.net/weixin_42437114/article/details/120739097