其他分享
首页 > 其他分享> > Transparent Classification with Multilayer Logical Perceptrons and Random Binarization

Transparent Classification with Multilayer Logical Perceptrons and Random Binarization

作者:互联网

目录

Wang Z., Zhang W, Liu N. and Wang J. Transparent classification with multilayer logical perceptrons and random binarization. In AAAI Conference on Artificial Intelligence (AAAI), 2020.

这儿类似的rule-based的网络, 主要探讨如何训练它.

主要内容

作者提出一种从零开始训练的rule-based网络, 其由如下的CAS (Concept Rule Sets) 模块构成:

相较于 这儿 除了基本模块不同外, 作者额外引入了 Random Binarlization (RB) 机制. 即在训练其连续化版本 \(\hat{W}\) 时:

  1. 通过一定概率生成掩码矩阵 \(M\);
  2. 对于\(M_{i,j} = 1\)的权重\(\hat{W}_{i,j}\)进行二元化:

\[\tilde{W}_{i,j} = \mathbb{I}(\hat{W}_{i, j} > \mathcal{T}), \]

其余元素保持不变;
3. 训练时仅训练马偕 \(M_{i,j} = 0\)的元素, 即固定那些被二元化的权重;
4. 训练一定次数后, 将这些被二元化的权重恢复如初, 回到第二步, 重复训练.

相当于每次训练一部分, 另一部分试图去适应二元化的部分, 这样可能在之后二元后后会容易些.

输入

对于连续的输入, 首先要通过离散, 作者采用的是:

Dougherty, J.; Kohavi, R.; and Sahami, M. 1995. Supervised and unsupervised discretization of continuous features. In MLP. Elsevier. 194–202.

的工作.

简化

最后获得的网络可能存在冗余的结点: 不存在路径经过的结点 (dead node) 和 重复的结点 (规则重复), 简化这些结点可以降低模型的复杂度.

标签:二元化,结点,based,Classification,训练,Multilayer,Random,AAAI,hat
来源: https://www.cnblogs.com/MTandHJ/p/16118537.html