其他分享
首页 > 其他分享> > Pytorch自动混合精度(AMP)介绍

Pytorch自动混合精度(AMP)介绍

作者:互联网

背景:

 pytorch从1.6版本开始,已经内置了torch.cuda.apex,采用自动混合精度训练就不需要加载第三方NVIDIA的apex库了。本文主要从三个方面来介绍AMP:

 1.什么是AMP?

    2.为什么要使用AMP?

 3.如何使用AMP?

 

正文:

 1.什么是AMP?

     默认情况下,大多数深度学习框架都采用32位浮点算法进行训练。2017年,NVIDIA研究了一种用于混合精度训练的方法,该方法在训练网络时将单精度(FP32)与半精度(FP16)结合在一起,并使用相同的超参数实现了与FP32相同的精度。在介绍AMP之前,先来理解下FP16与FP32,半精度是一种计算机使用的二进制浮点数据类型,使用2字节存储。

其中,sign位表示正负,exponent位表示指数2^(n-15+1(n=0)),fraction位表示分数(m/1024)。

为什么要使用FP16,理由有三个:1.减少显存占用;2.加快训练和推断的计算,能带来多一倍速的体验;3.张量核心的普及(NVIDIA Tensor Core),低精度计算是未来深度学习的一个重要趋势。

但凡事都有两面性,FP16也带来了些问题:1.溢出错误;2.舍入误差;

1.溢出错误:由于FP16的动态范围比FP32位的狭窄很多,因此,在计算过程中很容易出现上溢出和下溢出,溢出之后就会出现"NaN"的问题。在深度学习中,由于激活函数的梯度往往要比权重梯度小,更易出现下溢出的情况

2.舍入误差

 舍入误差指的是当梯度过小时,小于当前区间内的最小间隔时,该次梯度更新可能会失败:

标签:舍入,FP32,Pytorch,精度,FP16,AMP,溢出
来源: https://www.cnblogs.com/jimchen1218/p/14315008.html