其他分享
首页 > 其他分享> > 基于Pytorch的深度学习 —— 非线性激活函数

基于Pytorch的深度学习 —— 非线性激活函数

作者:互联网

文章目录

作用

Sigmoid

tanh

ReLU

Leaky ReLU

SoftPlus

开发环境


作用

非线性激活函数获取输入,并对其进行数学变换后生成输出;

非线性激活函数为神经元引入了非线性因素,使得神经网络可以任意逼近任何非线性函数,可以应用到非线性模型中;如果不使用,则只能适合线性模型。

Sigmoid

 

σ(X)=1/(1+e-x)Sigmoid激活函数输入实数,输出结果为0到1之间;

对于一个极大的负值,返回结果接近于0;对于一个极大的正值,返回结果接近于1;

表达式:

σ(X)=1/(1+e^-x)σ(x)=1/(e^-x)\sigma (x)=\frac{1}{1+e^{-x}}

弊端:当输出值接近于0或1时,σ(X)=1/(1+e-x)Sigmoid函数前一层的梯度接近于0;此时前一层的权重无法经常调整,从而产生了无效神经元。

代码与绘制:

import torch    #引用torch
import matplotlib.pyplot as plt     #引用matplotlib
import os   #引用OS
os.environ['KMP_DUPLICATE_LIB_OK'] = 'TRUE'

x_tor = torch.linspace(-5, 5, 200)  #使用torch在区间[-5,5]上均匀的生成200个数据
x_np = x_tor.data.numpy()  #将数据转换成np的数据类型
y_sigmoid = torch.sigmoid(x_tor).data.numpy()   #sigmoid激活函数

plt.plot(x_np, y_sigmoid, c='blue', label='sigmoid') #坐标轴赋值及描述信息
plt.ylim((-0.2, 1.2))   #设置Y轴上下限
plt.legend(loc='best')  #给图像加图例
plt.show()  #显示绘制的图像

tanh

非线性函数tanh输出结果为-1到1之间;

表达式:

tanh(x)=\frac{e^{x}+e^{-x}}{e^{x}+e^{-x}}

所以当tanh输出极值接近-1和1时,也面临梯度饱和的问题;但是其输出是以0为中心的,实际应用中会比Sigmoid更好;

代码与绘制:

import torch    #引用torch
import matplotlib.pyplot as plt     #引用matplotlib
import os   #引用OS
os.environ['KMP_DUPLICATE_LIB_OK'] = 'TRUE'

x_tor = torch.linspace(-5, 5, 200)  #使用torch在区间[-5,5]上均匀的生成200个数据
x_np = x_tor.data.numpy()  #将数据转换成np的数据类型
y_tanh = torch.tanh(x_tor).data.numpy()     #tanh激活函数
plt.plot(x_np, y_tanh, c='blue', label='tanh') #坐标轴赋值及描述信息
plt.ylim((-1.2, 1.2))   #设置Y轴上下限
plt.legend(loc='best')  #给图像加图例
plt.show()  #显示绘制的图像

ReLU

ReLU有助于优化器更快的找到正确的权重集合。可以使随机梯度下降收敛的更快;计算速度非常快;

但是当一个很大的梯度进行反向传播时,流经的神经元会变得无效;可以通过调整学习率来控制;

表达式:

 

ReLU把所有负值取作0,正值保持不变;

代码与绘制:

import torch    #引用torch
import matplotlib.pyplot as plt     #引用matplotlib
import os   #引用OS
os.environ['KMP_DUPLICATE_LIB_OK'] = 'TRUE'

x_tor = torch.linspace(-5, 5, 200)  #使用torch在区间[-5,5]上均匀的生成200个数据
x_np = x_tor.data.numpy()  #将数据转换成np的数据类型
y_relu = torch.relu(x_tor).data.numpy()     #ReLU激活函数
plt.plot(x_np, y_relu, c='blue', label='relu') #坐标轴赋值及描述信息
plt.ylim((0, 6))   #设置Y轴上下限
plt.legend(loc='best')  #给图像加图例
plt.show()  #显示绘制的图像

Leaky ReLU

Leaky ReLU尝试解决一个问题死角,不再将饱和度置为0,而是设为一个非常小的数值,如0.01;

Leaky ReLU是给所有负值赋予一个非零斜率;

这一激活函数对于某些用例提供了更优异的性能,但是他不是连续的。

SoftPlus

SoftPlus平滑版的ReLU;

表达式:

f(x)=log(1+e^{x})

代码与绘制:

import torch    #引用torch
import matplotlib.pyplot as plt     #引用matplotlib
import torch.nn.functional as F     #引用torch.nn.functional
import os   #引用OS
os.environ['KMP_DUPLICATE_LIB_OK'] = 'TRUE'

x_tor = torch.linspace(-5, 5, 200)  #使用torch在区间[-5,5]上均匀的生成200个数据
x_np = x_tor.data.numpy()  #将数据转换成np的数据类型
y_softplus = F.softplus(x_tor).data.numpy()     #tanh激活函数
plt.plot(x_np, y_softplus, c='blue', label='softplus') #坐标轴赋值及描述信息
plt.ylim((0, 6))   #设置Y轴上下限
plt.legend(loc='best')  #给图像加图例
plt.show()  #显示绘制的图像

开发环境

Author:Lizhifun

OS:Windows 10 家庭中文版

Python:3.8.5

Pytorch:1.7.1

 

 

 

标签:torch,tor,非线性,ReLU,Pytorch,plt,import,np,激活
来源: https://blog.csdn.net/tingzhiyi/article/details/113322429