编程语言
首页 > 编程语言> > 第21章:基于Bayesian Theory的MRC文本理解基础经典模型算法详解

第21章:基于Bayesian Theory的MRC文本理解基础经典模型算法详解

作者:互联网

1,Bayesian prior在模型训练时候对Weight控制、训练速度影响等功能详解

2,Bayesian prior能够提供模型训练速度和质量的数学原理剖析

3,从Word2vec走向GloVe:从Local 信息走向Global+Local信息表示模式

4,GloVe 中的Vector相关性算法

5,GloVe的Co-occurrence matrix解析

6,GloVe的Loss计算

7,神经网络表达信息的三大局限剖析

7,使用Convolutions取代神经网络传统的matrix multiplication操作

8,文本序列的Vector表示及Convolutions的天然契合点分析

9,Parameter sharing背后的数学原理和工程的广泛应用

10,Vector中的参数真的能够很好的表达信息吗?数学原理及工程实践

11,TextCNN架构设计解析

12,CNN-rand数学原理及工程实现

13,CNN-static数学原理及工程实现

14,CNN-non-static数学原理及工程实现

15,CNN-multiple channel数学原理及工程实现

16,处理长短不一的Sentence

17,Kernel设置的数学原理及最佳实践

18,传统模型Attention实现本质:权重分配

19,通过Soft-Search的方式来构建Attention机制及数学原理剖析

20,KQV:Attention-based model based on weight allocation

21,Local-Attention、Global-Attention、Self-Attention对比及最佳实践

22,基于一维匹配的Attentive Reader架构及数学原理剖析

23,基于二维匹配的Impatient Reader架构及数学原理剖析

24,Multi-Hop机制多次提取更充足信息的Attention实现剖析

25,Multi-Hop机制多次提取更充足信息的TimeStep状态推进剖析

26,Pointer network和Attention机制的对比

27,R-NET:借助pointer network和使用gateway机制的attention实现

28,R-NET的Encoding Layer解析

29,R-NET的Question-Passage Matching解析

30,R-NET的Passage Self-Matching解析

31,R-NET的Answer Prediction解析

32,Fully-Aware Fusion Network提出的MRC的Fusion层次划分解析

33,Fully-Aware Fusion Network中的History-of-word机制来更好的理解语意

34,Fully-Aware Fusion Network的Attention机制解析

35,Fully-Aware Fusion Network的Encoding Layer:GloVe、CoVe、POS、NER等

36,Fully-Aware Fusion Network的Multi-level Fusion解析

37,Fully-Aware Fusion Network的Fully-Aware Self-Boosted Fusion解析

38,Fully-Aware Fusion Network的Output layer解析

39,QA-Net的架构之Embedding Encoder Layer解析

40,QA-Net的架构之Context-Query Attention Layer解析

41,QA-Net的架构之Model Encoder Layer解析

42,QA-Net的架构之Output Layer解析

标签:21,Fully,Attention,Aware,Fusion,数学原理,Bayesian,解析,Theory
来源: https://blog.csdn.net/StarSpaceNLP667/article/details/121551747