其他分享
首页 > 其他分享> > 对《OmniNet: Omnidirectional Representations from Transformers》方法的理解

对《OmniNet: Omnidirectional Representations from Transformers》方法的理解

作者:互联网

1.OMNIDIRECTIONAL REPRESENTATIONS

对于一个L层的transformer网络,输入的数据维度是N×d,同理得transformer每一层的输出都是N×d。
x f o r m e r ( X ) = X 1 , X 2 ⋅ ⋅ ⋅ X L xformer(X)=X_1,X_2···X_L xformer(X)=X1​,X2​⋅⋅⋅XL​ , X i ∈ R N × d X_i ∈ R^{N×d} Xi​∈RN×d
对于上面的公式,得到的实际是transformer每一层的输出。
然后omninet的机制其实就是下面的公式:
O = A t t e n d ( I n d e x S o r t ( X 1 , X 2 , ⋅ ⋅ ⋅ X L ) ) O=Attend(IndexSort(X_1,X_2,···X_L)) O=Attend(IndexSort(X1​,X2​,⋅⋅⋅XL​))
就是将xformer的输出按索引序号排好串联在一起后进行self-attention,这时得到的O就拥有了每一层每个位置之间的注意力信息。将O展开成(L×N)×d后输入尺寸为L的最大池化,便得到N×d的向量 O ′ O^{\prime} O′,这个 O ′ O^{\prime} O′是具有transformer全方位注意力的向量,将其加到transformer最后一层的输出便可以获得带有全方位注意力的输出。

标签:一层,输出,transformer,OmniNet,Transformers,Attend,xformer,X2,Representations
来源: https://blog.csdn.net/weixin_44000193/article/details/123186185