其他分享
首页 > 其他分享> > 网络结构搜索之梯度可微

网络结构搜索之梯度可微

作者:互联网

前面介绍了强化学习方法,但屠龙刀毕竟不是人人有。梯度可微算法在保证精度可接受的前提下大幅缩短了训练周期,开启了网络结构搜索的平民化浪潮。

MobileNetV2FBNetShiftNetGumbel-SoftmaxSNASDARTSProxylessNASP-DARTSPC-DARTSDenseNAS

DARTS

DARTS 由 CMU 和 DeepMind 提出,最终发表在 ICLR 2019上。DARTS 在有限资源条件下将模型精度提升到可接受的程度,而且开放代码(quark0/darts)。可谓 NAS 领域内的一大贡献。美中不足的是代码仅在单 GPU 下搜索,以至于后续的 chenxin061/pdartsyuhuixu1993/PC-DARTS 亦维持此设置,成为扩展的阻碍。

DARTS 将搜索空间放宽为连续的,以便可以通过梯度下降来优化体系结构的验证集性能。在所有混合操作中联合学习架构 α\alphaα 和权重 www。这意味着一个双层优化问题,其中 α\alphaα 作为上层变量,www 作为下层变量:
minαLval(w(α),α)s.t.w(α)=argminwLtrain(w,α) \begin{aligned} \min_\alpha \quad & \mathcal{L}_{val}(w^*(\alpha), \alpha) \\ \text{s.t.} \quad &w^*(\alpha) = \mathrm{argmin}_w \enspace \mathcal{L}_{train}(w, \alpha) \end{aligned} αmin​s.t.​Lval​(w∗(α),α)w∗(α)=argminw​Ltrain​(w,α)​
DARTS 求结构梯度的近似解:

αLval(w(α),α)αLval(wξwLtrain(w,α),α) \begin{aligned} &\nabla_\alpha \mathcal{L}_{val}(w^*(\alpha), \alpha) \\ \approx &\nabla_\alpha \mathcal{L}_{val}(w - \xi \nabla_{w} \mathcal{L}_{train}(w, \alpha), \alpha) \end{aligned} ≈​∇α​Lval​(w∗(α),α)∇α​Lval​(w−ξ∇w​Ltrain​(w,α),α)​

其中 www 表示算法维护的当前权重,ξ\xiξ 是内部优化步骤的学习率。思路是通过仅使用单个训练步骤来调整 www 来近似 w(α)w^*(\alpha)w∗(α),而不是训练至收敛来完全求解内部优化。

从形式上讲,DARTS 将搜索网络分解为若干(LLL)个的单元(cell)。每个单元组织为具有 NNN 个节点的有向无环图(DAG),其中每个节点定义一个网络层。预定义操作空间 O\mathcal{O}O,其中每个元素 o&NegativeThinSpace;()o\!\left(\cdot\right)o(⋅) 是在网络层执行的固定操作(例如,identity connection, and 3×33\times33×3 convolution)。在单元内,目标是从 O\mathcal{O}O 中选择一个操作来连接每对节点。设一对节点为 (i,j)\left(i,j\right)(i,j),其中 0i&lt;jN1{0}\leqslant{i}&lt;{j}\leqslant{N-1}0⩽i<j⩽N−1,DARTS 的核心思想是将从 iii 传播到 jjj 的信息表示为 O\left|\mathcal{O}\right|∣O∣ 操作的加权和,即 fi,j&NegativeThinSpace;(xi)=oOexp{αi,jo}oOexp{αi,jo}o&NegativeThinSpace;(xi){f_{i,j}\!\left(\mathbf{x}_i\right)}={{\sum_{o\in\mathcal{O}}}\frac{\exp\left\{\alpha_{i,j}^o\right\}}{{\sum_{o&#x27;\in\mathcal{O}}}\exp\left\{\alpha_{i,j}^{o&#x27;}\right\}}\cdot o\!\left(\mathbf{x}_i\right)}fi,j​(xi​)=∑o∈O​∑o′∈O​exp{αi,jo′​}exp{αi,jo​}​⋅o(xi​),其中 xi\mathbf{x}_ixi​ 是第 iii 个节点的输出,αi,jo\alpha_{i,j}^oαi,jo​ 是加权操作的超参数 o&NegativeThinSpace;(xi)o\!\left(\mathbf{x}_i\right)o(xi​)。节点的输出是所有输入流的总和,即 xj=i&lt;jfi,j&NegativeThinSpace;(xi){\mathbf{x}_j}={{\sum_{i&lt;j}}f_{i,j}\!\left(\mathbf{x}_i\right)}xj​=∑i<j​fi,j​(xi​),整个单元格的输出是通过连接节点 x2\mathbf{x}_2x2​–xN1\mathbf{x}_{N-1}xN−1​ 的输出而形成的,即 concat&NegativeThinSpace;(x2,x3,,xN1)\mathrm{concat}\!\left(\mathbf{x}_2,\mathbf{x}_3,\ldots,\mathbf{x}_{N-1}\right)concat(x2​,x3​,…,xN−1​) 。请注意,前两个节点 x0\mathbf{x}_0x0​ 和 x1\mathbf{x}_1x1​ 是单元的输入节点,在架构搜索期间是固定的。

搜索过程完成后,在每个边 (i,j)\left(i,j\right)(i,j) 上,保留具有最大 αi,jo\alpha_{i,j}^oαi,jo​ 值的操作 ooo,并且每个节点 jjj 连接到具有最大 αi,jo\alpha_{i,j}^oαi,jo​ 的两个先例(i&lt;j{i}&lt;{j}i<j)。

实验中, 在 CIFAR-10 上搜索基础单元,由组件构建网络从头训练得到 ImageNet 上的结果。

DARTSO\mathcal{O}O 中包括以下操作:

所有操作步长为1(如果适用),填充卷积特征图以保持其空间分辨率。使用 ReLU-Conv-BN 顺序进行卷积运算,并且每个可分离卷积总是应用两次([NASNet] [AmoebaNet][PNAS])。

卷积单元由 N=7N=7N=7 个节点组成,其中定义输出节点为所有中间节点(不包括输入节点)的深度级联。其余的设置遵循 [NASNet] [AmoebaNet][PNAS],然后通过将多个单元堆叠在一起形成网络。单元 kkk 的第一和第二节点分别设置为等于单元 k2k-2k−2 和单元 k1k-1k−1 的输出,并且根据需要插入 1×11 \times 11×1 卷积。 位于网络总深度的1/3和2/3处的单元是约简单元,其中与输入节点相邻的所有操作步长为2。因此,体系结构编码是 (αnormal,αreduce)(\alpha_{normal}, \alpha_{reduce})(αnormal​,αreduce​),其中 αnormal\alpha_{normal}αnormal​ 由所有正常单元共享,αreduce\alpha_{reduce}αreduce​ 由所有约简单元共享。
visualize-normal-cropvisualize-reduction-crop
为了更好地理解深度对架构搜索的影响,DARTS 通过将堆栈中的单元数量从8增加到20来对 CIFAR-10进行架构搜索。由于单个 GPU 显存的限制,初始通道数量从16减少到6。测试误差,略低于较浅网络。

P-DARTS

P-DARTS 是同济大学和华为诺亚方舟实验室提出的一种渐进式的可微分网络结构搜索方法,致力于提升 DARTS 的迁移性能。在 CIFAR10和 CIFAR100数据集上搜索基本单元,单个P100 GPU上只需要7个小时。在DARTS中,网络结构搜索是在一个拥有8个 cell 的搜索网络上进行的,然而却是在一个拥有20个 cell 的网络上测试的,在搜索网络和测试网络之间有一个很大的深度差异。

P-DARTS 能够在 16 GB 显存的 GPU 上完成搜索。

PC-DARTS

DARTS 将操作选择转换为固定操作集的加权组合,为寻找有效的网络架构提供了快速解决方案。但联合训练超网络和搜索最优结构,内存和计算开销很大。P-DARTS 减少搜索空间,而这一近似会导致可能牺牲已发现架构的最优性。PC-DARTS 通过对超网络的一小部分进行采样以减少网络空间中的冗余,从而在不损害性能的情况下提高搜索效率。具体来说,PC-DARTS 在通道子集中执行操作搜索,并保持其他部分不变。采样不同通道可能造成在选择超网络的边时出现不一致。PC-DARTS 通过引入边正则(edge normalization)来解决这个问题,在搜索过程中添加了一组新的边级超参数,以减少搜索中的不确定性。项目地址为:yuhuixu1993/PC-DARTS

PC-DARTS 即部分连接 DARTS,核心思想是直观的:随机抽取其中的一个子集进行操作选择,同时直接放过其余部分,而不是将所有通道都送到操作选择块中。PC-DARTS 假设该子集的计算能近似替代所有通道。除了内存和计算成本都大大降低之外,采样带来了另一个好处,即操作搜索正则化,不易陷入局部最优。然而,PC-DARTS 也带来了副作用,即网络连接的选择将变得不稳定,因为在迭代中会采样不同的信道子集。因此,PC-DARTS 引入边正则(edge normalization)来通过显式学习一组额外的边选择超参数来稳定对网络连接的搜索。通过在整个训练过程中共享这些超参数,所学习的网络结构不易受迭代中通道采样的影响,因此更加稳定。

得益于部分连接策略,PC-DARTS 能够相应地增加批量大小。在实践中,PC-DARTS 为每个操作选择随机抽取 1/K1/K1/K 的通道,这将减少几乎 KKK 倍的内存成本。这使得我们可以在搜索过程中使用 K×K\timesK× 批量大小,不仅可以将搜索速度加快 KKK 倍,而且还稳定了搜索,特别是对于大型数据集。

当然,以上都是作者观点。读代码的话会发现通道不是随机取的,而是固定取前 1/K1/K1/K。所以“边正则”概念就有点飘了。DARTS 不仅仅选择操作,还会像剪枝一样确定连接。然而同层会有多个 softmax 输出,从中选最大显得不甚合理。额外加一组结构参数应该可以改善这一点。

DARTS 的缺点在于其内存效率低下。为了适应 O|\mathcal{O}|∣O∣ 操作,在搜索架构的主要部分中,O|\mathcal{O}|∣O∣ 操作副本及其输出需要存储在每个节点(即每个网络层),导致 O×|\mathcal{O}|\times∣O∣× 次内存使用。要装进GPU,必须在搜索期间减小批量大小,这不可避免地降低搜索速度,并且较小的批量大小可能降低搜索稳定性和准确性。

或者,内存效率的另一种解决方案是部分通道连接,如下图所示。以 xi\mathbf{x}_ixi​ 与 xj\mathbf{x}_jxj​ 的连接为例。这涉及定义一个通道采样掩码 Si,j\mathbf{S}_{i,j}Si,j​,它为所选通道分配 111,为屏蔽的通道分配 000。所选通道送入 O\left|\mathcal{O}\right|∣O∣ 混合操作计算,而屏蔽通道则绕过这些操作,即直接复制到输出,
在这里插入图片描述
fi,jPC&NegativeThinSpace;(xi;Si,j)=oOexp{αi,jo}oOexp{αi,jo}o&NegativeThinSpace;(Si,jxi)+(1Si,j)xi. {f_{i,j}^\mathrm{PC}\!\left(\mathbf{x}_i;\mathbf{S}_{i,j}\right)}={{\sum_{o\in\mathcal{O}}}\frac{\exp\left\{\alpha_{i,j}^o\right\}}{{\sum_{o&#x27;\in\mathcal{O}}}\exp\left\{\alpha_{i,j}^{o&#x27;}\right\}}\cdot o\!\left(\mathbf{S}_{i,j}\ast\mathbf{x}_i\right)+\left(1-\mathbf{S}_{i,j}\right)\ast\mathbf{x}_i}. fi,jPC​(xi​;Si,j​)=o∈O∑​∑o′∈O​exp{αi,jo′​}exp{αi,jo​}​⋅o(Si,j​∗xi​)+(1−Si,j​)∗xi​.
其中,Si,jxi\mathbf{S}_{i,j}\ast\mathbf{x}_iSi,j​∗xi​ 和 (1Si,j)xi\left(1-\mathbf{S}_{i,j}\right)\ast\mathbf{x}_i(1−Si,j​)∗xi​ 分别表示选定和屏蔽的通道。

在实践中,PC-DARTSKKK 视为超参数,设置选中通道的比例为 1/K1/K1/K。 通过改变 KKK,可以在架构搜索准确度(较小的 KKK)和效率(较大的 KKK)之间进行权衡以取得平衡。

KKK 带来的直接好处是 fi,jPC&NegativeThinSpace;(xi;Si,j)f_{i,j}^\mathrm{PC}\!\left(\mathbf{x}_i;\mathbf{S}_{i,j}\right)fi,jPC​(xi​;Si,j​) 计算减少 KKK 次。这允许使用更大的批量大小进行结构搜索。随即有两方面的好处:

通道采样对神经架构搜索的影响既有有积极的也有消极的:

具体来说,在架构搜索完成后,边 (i,j)\left(i,j\right)(i,j) 的连接由 {αi,jo}\left\{\alpha_{i,j}^o\right\}{αi,jo​} 和 βi,j\beta_{i,j}βi,j​ 确定。PC-DARTS 归一化系数,然后相乘,即 exp{βi,j}i&lt;jexp{βi,j}exp{αi,jo}oOexp{αi,jo}\frac{\exp\left\{\beta_{i,j}\right\}}{{\sum_{i&#x27;&lt;j}}\exp\left\{\beta_{i&#x27;,j}\right\}} \cdot \frac{\exp\left\{\alpha_{i,j}^o\right\}}{{\sum_{o&#x27;\in\mathcal{O}}}\exp\left\{\alpha_{i,j}^{o&#x27;}\right\}}∑i′<j​exp{βi′,j​}exp{βi,j​}​⋅∑o′∈O​exp{αi,jo′​}exp{αi,jo​}​。 由于 βi,j\beta_{i,j}βi,j​ 在训练过程中共享,因此学习的网络架构不易受迭代间采样通道影响,从而使架构搜索更加稳定。

P-DARTS 在 skip-connect 之后应用了 dropout,以避免参数化和无参数操作之间的信息不平衡。

SNAS

随机神经网络架构搜索(Stochastic Neural Architecture Search,SNAS),是商汤发表在 ICLR 2019上的一篇文章,吸收了 ENASDARTS 的优点。SNAS 的实质似乎就是将 DARTS 中的 Softmax 换成了Concrete distribution 并加了资源约束项,然而整个叙述却十分复杂。SNAS 在同一轮反向传播中训练神经运算的参数和架构的分布参数(这样真的好?)。号称的思想是,利用泛化损失中的梯度信息提高基于强化学习的 NAS 的效率。

SNAS 的实验设置基本与 DARTS 相同。

SNAS 将子网络运行延迟作为目标的正规化项:

EZpα(Z)[Lθ(Z)+ηC(Z)]=EZpα(Z)[Lθ(Z)]+ηEZpα(Z)[C(Z)], \begin{aligned} \mathbb{E}_{\mathit{Z}\sim p_{\mathit{\alpha}}(\mathit{Z})}[L_{\mathit{\theta}}(\mathit{Z})+\eta C(\mathit{Z})]=\mathbb{E}_{\mathit{Z}\sim p_{\mathit{\alpha}}(\mathit{Z})}[L_{\mathit{\theta}}(\mathit{Z})]+\eta \mathbb{E}_{\mathit{Z}\sim p_{\mathit{\alpha}}(\mathit{Z})}[C(\mathit{Z})], \end{aligned} EZ∼pα​(Z)​[Lθ​(Z)+ηC(Z)]=EZ∼pα​(Z)​[Lθ​(Z)]+ηEZ∼pα​(Z)​[C(Z)],​
其中 C(Z)C(\mathit{Z})C(Z) 是与随机变量 Z\mathit{Z}Z 相关联的子网络的时间成本,包含3项指标:

FBNet

在这里插入图片描述

BSN 相同,FBNet 以随机超网络表示搜索空间。将寻找最佳架构的问题放宽为找到产生最优体系结构的分布。借助于 Gumbel Softmax 可以使用基于梯度的优化(如 SGD)直接训练架构分布。损失包括交叉熵损失和延迟损失。相当于宏搜索版的 SNAS

随机超网络对候选块进行采样,采样概率为
Pθl(bl=bl,i)=softmax(θl,i;θl)=exp(θl,i)iexp(θl,i). P_{\bm{\theta}_{l}}(b_l = b_{l,i}) = \text{softmax}(\theta_{l,i}; \bm{\theta}_l) = \frac{\exp(\theta_{l,i})}{\sum_i \exp(\theta_{l,i})}. Pθl​​(bl​=bl,i​)=softmax(θl,i​;θl​)=∑i​exp(θl,i​)exp(θl,i​)​.
θl\bm{\theta}_lθl​ 包含的参数确定在第 lll 层采样每个块的概率。同样,第 lll 层的输出可以表示为
xl+1=iml,ibl,i(xl), x_{l+1} = \sum_i m_{l, i} \cdot b_{l, i}(x_{l}), xl+1​=i∑​ml,i​⋅bl,i​(xl​),
其中 ml,im_{l,i}ml,i​ 是 {0,1}\{0, 1\}{0,1} 中的随机变量,如果采样块 bl,ib_{l, i}bl,i​,则计算结果为1。采样概率由前面的等式确定。bl,i(xl)b_{l, i}(x_{l})bl,i​(xl​) 表示给定输入特征图 xlx_{l}xl​ 的情况下,第 lll 层的第 iii 块的输出。FBNet 让每个层独立采样,因此,采样架构 aaa 的概率可以描述为
Pθ(a)=lPθl(bl=bl,i(a)), P_{\bm{\theta}}(a) = \prod_l P_{\bm{\theta}_l} (b_l = b_{l,i}^{(a)}), Pθ​(a)=l∏​Pθl​​(bl​=bl,i(a)​),
其中 θ\bm{\theta}θ 为一个向量,元素 θl,i\theta_{l,i}θl,i​ 为第 iii 块的第 lll 层的采样参数。 bl,i(a)b_{l,i}^{(a)}bl,i(a)​ 表示在采样架构中 aaa,在第 lll 层中选中第 iii 个块。

松弛求解最佳架构 aAa \in \mathcal{A}a∈A 问题为优化随机超网络的概率 PθP_\thetaPθ​ 以实现最小预期损失,公式重写为
min θmin waEaPθ{L(a,wa)}. \underset{\bm{\theta}}{\text{min }} \underset{w_a}{\text{min }} \mathbf{E}_{a \sim P_{\bm{\theta}}} \{\mathcal{L}(a, w_a) \}. θmin ​wa​min ​Ea∼Pθ​​{L(a,wa​)}.

将离散掩码变量 ml,im_{l,i}ml,i​ 放宽为由 Gumbel Softmax 函数计算的连续随机变量:
ml,i=GumbelSoftmax(θl,iθl)=exp[(θl,i+gl,i)/τ]iexp[(θl,i+gl,i)/τ], \begin{aligned} m_{l, i} &amp; = \text{GumbelSoftmax}(\theta_{l, i}|\bm{\theta_{l}}) \\ &amp; = \frac{\exp[(\theta_{l,i} + g_{l,i})/\tau]}{\sum_i \exp[(\theta_{l,i} + g_{l,i})/\tau]}, \end{aligned} ml,i​​=GumbelSoftmax(θl,i​∣θl​)=∑i​exp[(θl,i​+gl,i​)/τ]exp[(θl,i​+gl,i​)/τ]​,​
其中 gl,iGumbel(0, 1)g_{l,i} \sim \text{Gumbel(0, 1)}gl,i​∼Gumbel(0, 1) 是 Gumbel 分布的随机噪声。Gumbel Softmax 函数由温度参数 τ\tauτ 控制。当 τ\tauτ 接近0时,它近似于 Pθ(a)=lPθl(bl=bl,i(a))P_{\bm{\theta}}(a) = \prod_l P_{\bm{\theta}_l} (b_l = b_{l,i}^{(a)})Pθ​(a)=∏l​Pθl​​(bl​=bl,i(a)​) 中分布的离散分类抽样。随着 τ\tauτ 变大,ml,im_{l,i}ml,i​ 成为一个连续的随机变量。无论 τ\tauτ 的值如何,掩码 ml,im_{l,i}ml,i​ 都对参数 θl,i\theta_{l, i}θl,i​ 可微。DNASSNAS 同样使用 Gumbel Softmax 进行网络结构搜索。

对于延迟项,FBNet 使用基于查找表的模型进行效率估计,因此 LAT(a)\text{LAT}(a)LAT(a) 公式可以写为
LAT(a)=liml,iLAT(bl,i). \text{LAT}(a) = \sum_l \sum_i m_{l,i} \cdot \text{LAT} (b_{l,i}). LAT(a)=l∑​i∑​ml,i​⋅LAT(bl,i​).
每个运算符 LAT(bl,i)\text{LAT} (b_{l,i})LAT(bl,i​) 的延迟是一个常数系数,从而架构 aaa 的整体延迟相对于掩码 ml,im_{l,i}ml,i​ 是可微分的。

训练过程为:

FBNet 的搜索空间参考 MobileNetV2ShiftNet ,网络首尾固定,中间的22层可调,如 Table 1 所示。
Macro-architecture of the search space
块结构如下图所示,深度分离卷积可选3x3或5x5的卷积核,块内的首尾1x1卷积可替换为 group + channel shuffle。

值得注意的是网络没有使用 BN,论文也未谈到这一点。但 fbnet_builder 中是有的。

block
从 ImageNet 中随即取100类作为训练集,历经90个 epoch。找到最优结构后,从头训练模型。损失函数为:
L(a,wa)= CE(a,wa)αlog(LAT(a))β \begin{aligned} \mathcal{L}(a, w_a) = \text{ CE}(a, w_a) \cdot \alpha \log(\text{LAT}(a))^\beta \end{aligned} L(a,wa​)= CE(a,wa​)⋅αlog(LAT(a))β​
第一项 CE(a,wa)\text{CE}(a, w_a)CE(a,wa​) 表示架构 aaa 与相应参数 waw_awa​ 的交叉熵损失。第二项 LAT(a)\text{LAT}(a)LAT(a) 表示目标硬件上体系结构的延迟,以微秒为单位。系数 α\alphaα 控制损失函数的总体大小。指数系数 β\betaβ 调制延迟项的大小。除了 log 外,形式与 MnasNet 类似。

FBNet 预先测试每个 op 的耗时,创建查找表来估计不同模型的延时。目标设备为 Samsung Galaxy S8和 iPhone X。

LAT(a)=lLAT(bl(a)), \begin{aligned} \text{LAT}(a) = \sum_l \text{LAT} (b_l^{(a)}), \end{aligned} LAT(a)=l∑​LAT(bl(a)​),​

其中 bl(a)b_l^{(a)}bl(a)​ 表示架构 aaa 来自第 lll 层的块。

FBNet 将模型量化到 int8 在 Caffe2上测试,为对比将其他方法也进行了转换。

ProxylessNAS

DRDARTSProxylessNASBinaryConnectREINFORCEMobileNetV2

可微 NAS 通过网络架构的连续表示来降低训练时长,但会遇到高 GPU 内存消耗问题(随候选集大小线性增长)。ProxylessNAS 着眼于减少内存消耗,在训练时采样两条路径。采用强化学习和梯度下降两种方法训练 CPU、GPU 以及移动处理器3个平台上的模型。文中试图套用 BinaryConnect ,大讲二值化。然而路径二值化并不能降低内存消耗,实际运行机理与此毫不相干。直接在目标数据集上训练也有点噱头,因为分摊下来每条路径的训练轮数不多。论文题目不如改成随机采样更新的 Softmax 近似。而且,采样路径却未提 BatchNorm 如何应对。一个鲜明的例子是 DenseNAS 也使用路径采样方法,但未提及二值化。

ProxylessNASDARTSOne-Shot 的启发 , 将 NAS 定义为路径级修剪过程。
method
ProxylessNAS 在目标硬件上学习专用网络结构,但硬件目标(以延迟为例)不可微分。为此,其将网络延迟建模为连续函数,并作为正则化损失进行优化,类似于 SNAS。此外,ProxylessNAS 还提出了一种基于 REINFORCE规则 的算法(Proxyless-R),作为处理硬件度量的替代策略。

ProxylessNAS 将路径 N 选择一分解为多个二进制选择任务。 直觉是,如果一条路径是特定位置的最佳选择,那么与任何其他路径相比,它应该是更好的选择。

在结构参数的更新步骤中:

这样,在每个更新步骤中,一个采样路径被增强(路径权重增大),另一个采样路径被衰减(路径权重减小),而所有其他路径保持不变。这样,无论 NNN 的值如何,在架构参数的每个更新步骤中仅涉及两条路径,从而将内存需求降低到训练紧凑模型的相同水平。

为了使延迟可微分,ProxylessNAS 将网络的延迟建模为神经网络维度的连续函数。考虑具有候选集 {oj}\{o_j\}{oj​} 的混合操作,并且每个 ojo_joj​ 与路径权重 pjp_jpj​ 相关联,该权重表示选择 ojo_joj​ 的概率。因此,混合操作(即可学习块)的预期延迟如下:
E[latencyi]=jpji×F(oji), \mathbb{E} [\text{latency}_i] = \sum_j p_j^i \times F(o_j^i), E[latencyi​]=j∑​pji​×F(oji​),
其中 E[latencyi]\mathbb{E} [\text{latency}_i]E[latencyi​] 是 ithi^{th}ith 可学习块的预期延迟,F()F(\cdot)F(⋅) 表示延迟预测模型,F(oji)F(o_j^i)F(oji​) 是 ojio_j^ioji​ 的预测延迟。因此,E[latencyi]\mathbb{E} [\text{latency}_i]E[latencyi​] 关于体系结构参数的梯度为: E[latencyi] / pji=F(oji)\partial \mathbb{E} [\text{latency}_i]~/~\partial p_j^i = F(o_j^i)∂E[latencyi​] / ∂pji​=F(oji​)。
method_illustration
对于具有一系列混合操作的整个网络,由于这些操作在推理期间按顺序执行,因此网络的预期延迟可以用这些混合操作的总预期延迟之和表示:
E[latency]=iE[latencyi], \mathbb{E} [\text{latency}] = \sum_i \mathbb{E} [\text{latency}_i], E[latency]=i∑​E[latencyi​],

Proxyless-G 通过乘以比例因子 λ2(&gt;0)\lambda_2 (&gt; 0)λ2​(>0) 将网络的预期延迟纳入正常损失函数,该比例因子控制精度和延迟之间的权衡。最终的损失函数给出为

Loss=LossCE+λ1w22+λ2E[latency], Loss = Loss_{CE} + \lambda_1 ||w||_2^2 + {\color{red} \lambda_2 \mathbb{E}[\text{latency}]}, Loss=LossCE​+λ1​∣∣w∣∣22​+λ2​E[latency],
其中 LossCELoss_{CE}LossCE​ 表示交叉熵损失,λ1w22\lambda_1 ||w||_2^2λ1​∣∣w∣∣22​ 是权重衰减项。

ProxylessNAS 还可以利用 REINFORCE 来训练二值化权重。考虑具有二进制化参数 α\alphaα 的网络,更新二进制化参数的目的是找到最大化某个奖励 R()R(\cdot)R(⋅) 的最佳二进制门 ggg 。为便于说明,这里假设网络只有一个混合操作。因此,根据 REINFORCE ,对二进制化参数进行了以下更新:
J(α)=Egα[R(Ng)]=ipiR(N(e=oi)),αJ(α)=iR(N(e=oi))αpi=iR(N(e=oi))piαlog(pi),=Egα[R(Ng)αlog(p(g))]1Mi=1MR(Ngi)αlog(p(gi)), \begin{aligned} J(\alpha) &amp;= \mathbb{E}_{g \sim \alpha}[R(\mathcal{N}_g)] = \sum_i p_i R(\mathcal{N}(e = o_i)), \\ \nabla_\alpha J(\alpha) &amp;= \sum_i R(\mathcal{N}(e = o_i)) \nabla_\alpha p_i = \sum_i R(\mathcal{N}(e = o_i)) p_i \nabla_\alpha \log(p_i), \\ &amp;= \mathbb{E}_{g \sim \alpha} [R(\mathcal{N}_g) \nabla_\alpha \log(p(g))] \approx \frac{1}{M} \sum_{i=1}^M R(\mathcal{N}_{g^i}) \nabla_\alpha \log(p(g^i)), \end{aligned} J(α)∇α​J(α)​=Eg∼α​[R(Ng​)]=i∑​pi​R(N(e=oi​)),=i∑​R(N(e=oi​))∇α​pi​=i∑​R(N(e=oi​))pi​∇α​log(pi​),=Eg∼α​[R(Ng​)∇α​log(p(g))]≈M1​i=1∑M​R(Ngi​)∇α​log(p(gi)),​

其中 gig^igi 表示第 ithi^{th}ith 个采样二进制门,p(gi)p(g^i)p(gi) 表示根据公式eq:gates采样 gig^igi 的概率,Ngi\mathcal{N}_{g^i}Ngi​ 是根据二进制门 gig^igi 的紧凑型网络。由于公式eq:reinforce不需要 R(Ng)R(\mathcal{N}_g)R(Ng​) 对 ggg 可微,因此它可以处理不可微分的目标。一个有趣的观察是,公式eq:reinforce具有与标准 NAS 类似的形式,但它不是一个连续的决策过程,并且没有使用 RNN 元控制器。此外,由于基于梯度的更新和基于 REINFORCE 的更新对于相同的二值化体系结构参数基本上是两个不同的更新规则,因此可以将它们组合以形成体系结构参数的新更新规则。

Proxyless-R 与 MnasNet 类似,使用 ACC(m)×[LAT(m)/T]wACC(m) \times [ LAT(m) / T]^wACC(m)×[LAT(m)/T]w 作为优化目标,其中 ACC(m)ACC(m)ACC(m) 表示模型 mmm 的准确率,LAT(m)LAT(m)LAT(m) 表示 mmm 的延迟,TTT 是目标延迟,www 是用于控制准确性和延迟之间权衡的超参数。

ProxylessNASDARTS 在验证集上训练结构参数 α{\alpha}α,而 FBNet 未进行划分。

ProxylessNAS 设置一系列 MBConv,卷积核大小可选 {3,5,7}\{3, 5, 7\}{3,5,7} 扩张系数为 {3,6}\{3, 6\}{3,6}。

令人困惑的是 ProxylessNAS 的 batchsize=256,FBNet 为192。FBNet 只用 ImageNet 的1/10,ProxylessNAS 使用全部,二者训练时间却相同。FBNet 估计 MnasNet 的成本为91000 GPU hours;ProxylessNAS 实现的是40000。假定 ProxylessNAS 用的是 V100(测试平台是这一型号), FBNet 的设备似乎与之存在代差。

Single-Path NAS

Single-Path NAS 是一种单路径(或者 superkernel)方法。用一个7x7的大卷积,来代表3x3、5x5和7x7的三种卷积,把外边一圈 mask 清零掉就变成了3x3或5x5。扩张系数类似,认为6包含两个3,实现高度的参数复用。

在这里插入图片描述在这里插入图片描述

省显存,然而本质还是搜索空间小。基础网络参考 FBNet,仅搜索 expansion rate 和 kernel size。Single-Path NAS 代码 dstamoulis/single-path-nas 完全开源,依赖 TensorFlow 和 TPU,使用 facebook/FAI-PEP 分析模型每层的运行时间。比较有意思的是文中的表格,几种搜索算法结果并未拉开差距。

single-path nas

DenseNAS

DenseNAS 由地平线和华中科技大学联合提出,号称可以搜索网络结构中每个 block 的宽度和对应的空间分辨率。DenseNAS 构建一个密集连接的搜索空间。每个块的滤波器的数量(即宽度)以小步幅逐渐增加。搜索空间参考 MobileNetV2 并采用密集连接的形式构建。搜索空间比之前一些算法大。然而 DenseNASFBNet 一样训练集取 ImageNet 的1/10,同时类似 ProxylessNAS 采样路径训练,反而比二者训练时间缩短一半。

如下图所示,DenseNAS 在三个不同的级别(layerblocknetwork)定义搜索空间:

层为搜索空间中的基本结构。一层代表一组候选操作。搜索空间中的操作集合如表 Table 1 所示。
Table 1
每个块由若干层组成,拥有固定宽度和相应的空间分辨率。头部层处理具有不同通道数和空间分辨率的输入张量,并转换为固定宽度和空间分辨率。头部层不包括跳过连接,因为它是所有块所必需的。头部层之后是许多堆叠层(图中的例子中是三层)。之后,堆叠层中的操作以相同数量的通道和空间分辨率执行。

MnasNetProxylessNASFBNet 设置固定数量的块。DenseNAS 在搜索空间中设计了更多具有不同宽度的块,并允许搜索架构只包含块的子集,从而使搜索算法能够自由地选择具有特定宽度的块,同时丢弃其他块。

整个超网络架构定义为 ArchArchArch,并假设它包含 NNN 个块:Arch={B1,B2,...,BN}Arch = \{B_1, B_2, ..., B_N\}Arch={B1​,B2​,...,BN​}。 DenseNAS 将整个网络划分为几个阶段。每个阶段拥有不同的宽度范围和固定的空间分辨率。超网络从头到尾,块的宽度以小步幅逐渐增长。网络的早期阶段设定较小的宽度增长步幅,因为设置较大将导致巨大的计算成本。后期阶段增长幅度逐渐变大。如结构图所示,在第3阶段,空间分辨率设置为 28×2828 \times 2828×28,宽度增长步幅为8。宽度增长步幅在第4阶段变为16,阶段5变为64。

定义块 BiB_iBi​ 和后续块 BjB_jBj​(j&gt;ij &gt; ij>i)之间的连接为 CijC_{ij}Cij​。BiB_iBi​ 和 BjB_jBj​ 的空间分辨率分别为 Hi×WiH_i \times W_iHi​×Wi​(通常 Hi=WiH_i = W_iHi​=Wi​)和 Hj×WjH_j \times W_jHj​×Wj​。DenseNAS 限制连接仅在空间分辨率相差不超过两倍的块之间。因此,当 jimj - i \leq mj−i≤m 且 Hj/Hi2H_j / H_i \leq 2Hj​/Hi​≤2 时,CijC_{ij}Cij​ 存在。搜索空间基于密集连接的块构建。 但是,只选择一条路径来导出最终的结构。DenseNAS 不仅搜索每个块中的层数,而且还搜索块宽度和块数。同时确定执行空间下采样的层。目标是在搜索空间中找到一条良好的路径,代表架构的最佳深度和宽度配置。

bib_ibi​ 为第 iii 个块 BiB_iBi​ 的输出张量。每个块连接到后续 mmm 块。为了将块连接松弛为连续表示,DenseNAS 为块的每个输出路径分配块级架构参数。也就是说,对于从块 BiB_iBi​ 到 BjB_jBj​ 的路径,它们之间的路径有一个参数 βij\beta_{ij}βij​。与计算每个操作的权重类似,使用 softmax 函数计算两个块之间所有路径的概率:
pij=exp(βij)k=1mexp(βik). p_{ij} = \frac{\exp(\beta_{ij})}{\sum_{k=1}^m \exp(\beta_{ik})}. pij​=∑k=1m​exp(βik​)exp(βij​)​.

假设块 BiB_iBi​ 需要来自先前块的 mm&#x27;m′ 输入张量,即 BimB_{i-m&#x27;}Bi−m′​, Bim+1B_{i-m&#x27;+1}Bi−m′+1​, Bim+2B_{i-m&#x27;+2}Bi−m′+2​ … Bi1B_{i-1}Bi−1​。来自这些块的输入张量在通道数和空间分辨率上有所不同。因此,每个输入张量由 BiB_iBi​ 中的头部层变换为统一大小,然后求和。设 HikH_{ik}Hik​ 表示块 BiB_iBi​ 中第 kkk 个头部层对输入张量 BikB_{i-k}Bi−k​ 的转换,其中 k=1..mk=1..m&#x27;k=1..m′。转换后的输入张量之和可通过以下公式计算:

xi=k=1mpik,iHik(xik). x_i = \sum_{k=1}^{m&#x27;} p_{i-k, i} \cdot H_{ik}(x_{i-k}). xi​=k=1∑m′​pi−k,i​⋅Hik​(xi−k​).

值得注意的是,路径概率在块输出维度上标准化,但应用于后续块的输入维度(更具体地说,在头部层上)。头部层本质上是是候选操作的混合加权和。层级参数 α\alphaα 控制要选择的操作,而外部块级参数 β\betaβ 决定要连接的块。
DenseNAS 的训练方式与 DARTS 类似,权重和架构的优化过程按 epoch 交替进行。搜索过程完成后,根据结构参数导出体系结构:

超网络包括搜索空间中的所有可能路径和操作。 one-shot 搜索方法在训练超级网络时会丢掉一些路径。该技术使独立模型的性能预测更准确。为了减少内存消耗并加快搜索过程,DenseNAS 采用了 drop-path 训练策略:

DSO-NAS

DSO-NAS 是初创企业图森未来的一篇文章,投 ICLR 2019 被拒。文中对比了不同方法的参数量和计算量。评审中附加了更多实验数据,从中可以看出在网络延迟方面不尽人意。
DSO-NASProxylessNAS 一样将网络搜索看作是剪枝过程,采用团队前作 SSS(Sparse Structure Selection) 进行优化。不同的是 DSO-NAS 的 block 内部细分为4层,连接较为复杂。

参考资料:

标签:可微,mathbf,梯度,搜索,exp,DARTS,alpha,网络结构,mathcal
来源: https://blog.csdn.net/yiran103/article/details/94554119