其他分享
首页 > 其他分享> > 深度学习之图像分类(二十八)-- Sparse-MLP(MoE)网络详解

深度学习之图像分类(二十八)-- Sparse-MLP(MoE)网络详解

作者:互联网

深度学习之图像分类(二十八)Sparse-MLP(MoE)网络详解

目录

本工作向 Vision MLP 中引入 Mixture-of-Experts (MoE), 但是 发现其 MoE 使用方法和 Scaling Vision with Sparse Mixture of Experts 几乎一模一样,所以又是一篇在网络上的真实贡献“微乎其微”的工作…

请添加图片描述

1. 前言

一个月前(2021.9.8),新加坡国立大学提出了 Sparse-MLP,将 Mixture-of-Experts(MoE) 引入 MLP,使用条件计算来实现再扩充参数的同时,还可以保证计算成本不会太高。并引入了放缩特征维度的结构 ( 1 × 1 1 \times 1 1×1 卷积) 降低计算量。经过 MoCo v3 自监督预训练,最终在 ImageNet-1k 上达到了 79.2% 的 Top-1 精度,超过了 MLP-Mixer 2.5%。其论文为 Sparse-MLP: A Fully-MLP Architecture with Conditional Computation,代码暂时没有开源。

本文的核心在于将 MoE 引入 MLP,其实是完全参考2021.6月的工作 Scaling Vision with Sparse Mixture of Experts损失函数也直接照抄。唯一的不同在于别人做 Transformer-based,所以多头注意力机制没有变动,将 MoE 引入了后面的全连接,即对应 MLP-based 的 Channel-mixing MLP。本工作则对于空间 MLP 和通道 MLP 都会使用 MoE 进行改造。所以本博客主要就是讲解一下这个是怎么实现的,关于背后的思想之后有空再学习一下”开山之祖“。最终网络在 ImageNet 上的性能对比结果如下所示:

请添加图片描述

后续部分参考描述见 此处

2. Mixture of Experts

2.1 背景

MoE 的思想主要来自于 ICLR 2017 的一篇文章:Outrageously large neural networks: The sparsely-gated mixture-of-experts layer,该文提到 “The capacity of a neural network to absorb information is limited by its number of parameters. Conditional computation, where parts of the network are active on a per-example basis, has been proposed in theory as a way of dramatically increasing model capacity without a proportional increase in computation.”。这篇文章通过在 LSTM 中间插入多个专家结构,通过可训练的门控网络来对专家们进行 稀疏组合,从而将模型的能力(capacity)提升了超过 1000 倍并且只有少量的效率损失。除了主要的想法与这篇文章类似外,针对 MoE 结构的优化策略也基本一脉相承。

请添加图片描述

相同的研究团队在前一天(2021.9.7)在 arxiv 上挂了另外一篇文章 Go Wider Instead of Deeper,其实是一样的,不过是只将 MoE 放到了 FFN,即通道 MLP 中。

请添加图片描述

但是该团队的两篇工作其实都是”借鉴“谷歌团队(2021年6月)发布的 Scaling Vision with Sparse Mixture of Experts。粗略看了这个工作后,一下子觉得这个团队的近两个工作的贡献度直线下滑,甚至跌入谷底…

请添加图片描述

2.2 MoE

专家混合操作的核心在于:
MoE ⁡ ( x ) = ∑ i = 1 N G ( x ) i E i ( x ) , G ( x ) = TopK ⁡ ( softmax ⁡ ( W g ( x ) + ϵ ) ) : R D → R N , E i ( x ) : R D → R D \operatorname{MoE}(x)=\sum_{i=1}^{N} G(x)_{i} E_{i}(x), \\ G(x)=\operatorname{TopK}\left(\operatorname{softmax}\left(W_{g}(x)+\epsilon\right)\right): \mathbb{R}^{D} \rightarrow \mathbb{R}^{N}, \\ E_{i}(x): \mathbb{R}^{D} \rightarrow \mathbb{R}^{D} MoE(x)=i=1∑N​G(x)i​Ei​(x),G(x)=TopK(softmax(Wg​(x)+ϵ)):RD→RN,Ei​(x):RD→RD
此处第一行公式是包含 N N N 个专家的 MoE 层的聚合操作,用于计算以输入为条件的路由权重的门控网络 G(使用 Softmax 生成归一化权重,这里引入了噪声 ϵ ∼ N ( 0 , 1 N 2 ) \epsilon \sim \mathcal{N}\left(0, \frac{1}{N^{2}}\right) ϵ∼N(0,N21​) 从而探索更好的分配策略),以及第 i i i 个专家层映射。

可见其核心就是对输入 x x x 进行等维映射,这种等维映射可以有 N N N 种。然后另一条支路对 x x x 进行门控计算,权重 W g ∈ R D × N W_g \in \mathbb{R}^{D \times N} Wg​∈RD×N 表示 MoE 层的门控权重矩阵(gating weight matrix),其将输入的 D D D 维的 x x x 的映射到专家数量 N N N,由 Softmax 处理后即获得每个样本 x x x 被分配到各个专家的权重。经过 Softmax 之后取前 K K K ( K K K 通常取 1 或者 2)的权重,最终输出即得分前 K K K 个专家的加权和。

本文主要将 Mixer-MLP 中的最后几层空间和通道 MLP 进行了替换,替换成了 MoE 结构(包含空间和通道两种结构)。这样的设定有助于引入更多的参数,提升模型的能力。这与谷歌团队工作将 ViT 的后几个 block 添加 MoE 是一样的思路。结果可见,加到后面确实会好一些。

请添加图片描述

2.3 损失函数

多专家模型的训练是不容易的。主要是由于稀疏的门控路由机制导致并不是所有的专家必然可以被得到充分的训练,也就是所谓的负载不均衡问题。所以使用多专家设定的方法大多数都需要特殊的损失来进行针对性的处理。对于损失函数,本文延续了之前工作的设定,应用了负载均衡损失(Load Balance Loss)。该损失鼓励横跨专家对输入进行均衡分配。

该损失包含两部分设定:Importance loss and Load loss

L i m p ( X ) = ( std ⁡ ( Imp ⁡ ( X ) ) mean ⁡ ( Imp ⁡ ( X ) ) ) 2 L_{i m p}(X)=\left(\frac{\operatorname{std}(\operatorname{Imp}(X))}{\operatorname{mean}(\operatorname{Imp}(X))}\right)^{2} Limp​(X)=(mean(Imp(X))std(Imp(X))​)2

论文 Scaling Vision with Sparse Mixture of Experts 的表 4 能帮我们更好地理解专家选择这一过程。

请添加图片描述

2.4 Re-represent Layers

除了多专家层本身的设定,考虑到在原始的 MLP-Mixer 中,基于 patch 的 token 处理方式导致空间 token 数量小于通道数量的 1/3。这对于 MOEs,也就是空间层面上的 MoE 层而言,会导致路由部分与专家部分计算成本的不均衡。由于原始空间 token 数量和通道数量差异较大,这会导致在路由和专家前向计算时不平衡的计算成本(computational cost),所以作者们在空间 MoE 层的前后通过对空间 token 数量和通道数量进行平衡(使用 1 × 1 1 \times 1 1×1 卷积进行重新线性投影),从而保证了更加平衡和有效的计算过程。

最终 Re-represent Layers 伪代码如下,实际中设置 S 1 = 2 S , C 1 = C / 2 S_1 = 2S, C_1 = C / 2 S1​=2S,C1​=C/2:

请添加图片描述

可见,这里包含两层,一个用于输出,一个用于输入。二者搭配,用于平衡二者中间包裹的 MOEs 的运算(降低 MOEs 运算时的通道数量并增加空间 patch 数量。

可以看到,使用重表征层后虽然速度提升了,但是性能却没有下降,反而提升了。这是个有趣的现象。但是作者没有给出合理的解释和分析。仅仅是提了下其对于平衡路由和专家的计算成本的作用。那这样的结构直接用于 MLP-Mixer 中是否也会有提升?

请添加图片描述

3. 消融实验

论文的消融实验主要讨论了以下四点:

请添加图片描述

4. 反思与总结

本文核心贡献点一般,提出的 Sparse-MLP 其实依然对于图像尺寸敏感,也是使用全局感受野,仅仅是将 MoE 思想引入了其中。但是在谷歌工作之后做的,连续两天相同团队上传的论文,内容和谷歌的团队基本一致…

且不说工作是谁做出来的,将 MoE 思想引入 Transformer-based 和 MLP-based 还是非常有意思的。期待能将更多 CNN 中有意义的框架引入 Transformer-based 和 MLP-based 看看 ”组合“ 和 ”拼装“ 的进步。

标签:right,--,专家,MLP,Sparse,operatorname,MoE,left
来源: https://blog.csdn.net/baidu_36913330/article/details/120826340