其他分享
首页 > 其他分享> > Pytorch构造神经网络的几种等价方式

Pytorch构造神经网络的几种等价方式

作者:互联网

几种构造方式
比较常用的两种方式
1、通过集成nn.Module()来定义一个神经网络
以LeNet为例

# LeNet:卷积+池化+卷积+池化+全连接+全连接+全连接(两层卷积+三层全连接,一共5层)
class Net(nn.Module):
    def __init__(self):
        super().__init__()
        self.Cv = nn.Sequential(
            nn.Conv2d(1,6,kernel_size= 5),
            nn.MaxPool2d(2,2),
            nn.ReLU(),
            nn.Conv2d(6,16,kernel_size= 5),
            nn.MaxPool2d(2,2),
            nn.ReLU()
        ) 
        self.Linear = nn.Sequential(
            nn.Linear(16*4*4,120),
            nn.ReLU(),
            nn.Linear(120,84),
            nn.ReLU(),
            nn.Linear(84,10)
        )
    def forward(self,x):
        x = self.Cv(x)
        x = self.Linear(x.view(x.shape[0],-1))
        return x
net = Net()

2、当模型的计算就是简单的串联各个层时,可以直接使用nn.Senquential()来构造,直接叠加传播层即可,不需要定义forward函数。

#LeNet
net = nn.Sequential(nn.Conv2d(1,6,kernel_size=5),
                    nn.MaxPool2d(2,2),
                    nn.ReLU(),
                    nn.Conv2d(6,16,kernel_size=5),
                    nn.MaxPool2d(2,2),
                    nn.ReLU(),
                    nn.Flatten(),
                    #这一步的作用就是对输入的image进行扁平化处理,相当于x = x.view(x.shape[0],-1),然后再让我们的X进入Linear
                    nn.Linear(16*4*4,120),nn.ReLU(),nn.Linear(120,84),nn.ReLU(),nn.Linear(84,10))
这样构造的net和上面的net是等价的。

标签:kernel,Linear,nn,self,神经网络,ReLU,MaxPool2d,Pytorch,等价
来源: https://blog.csdn.net/qq_44805233/article/details/120690575