背景
神经网络模型的二值化被认为是在移动设备等资源受限环境中部署深度神经网络模型的一种有前途的方法。
模型
![在这里插入图片描述](https://www.icode9.com/i/ll/?i=4a7565565a0249ca983929fb47a9d8f1.png?,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBAU3RhcnJ5IG1lbW9yeQ==,size_12,color_FFFFFF,t_70,g_se,x_16)
此处研究的是对一个激活函数做一个偏移,看最终的结果如何。
![在这里插入图片描述](https://www.icode9.com/i/ll/?i=6a39143109ec42e095d99bdd4fbaffb8.png?,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBAU3RhcnJ5IG1lbW9yeQ==,size_20,color_FFFFFF,t_70,g_se,x_16)
平衡指的应该就是例如二值数据,1和-1的数量。
实验
我们进行了一些实验,以监测由于ReLU函数的性质导致的不平衡激活分布是否有助于提高准确性。
建议使用可训练的激活函数,以便激活的分布可以平衡。
标签:Binary,函数,Neural,Activation,神经网络,实验,激活,平衡,模型
来源: https://blog.csdn.net/doswynkfsw/article/details/121792541