本文重点
前面我们学习了简单的全连接神经网络,之所以说他简单的原因是我们只是使用了全连接层的堆叠,本文中我们更近一步,我们在层与层之间我们使用激活函数,来看一下这样的神经网络是如何堆叠的。
网络模型的搭建
class ActivationNet(nn.Module) :
def __init__ (self, in_dim, n_hidden_1, n_hidden_2, out_dim) :
super(ActivationNet, self).__init__()
self.layer1= nn.Sequential( nn.Linear(in_dim,n_hidden_1), nn.ReLU(True))
self.layer2 =nn.Sequential( nn.Linear(n_hidden_1,n_hidden_2), nn.ReLU(True)) self.layer3=nn.Sequential(nn.Linear(n_hidden_2, out_dim))
def forward(self, x):
x = self.layer1(x)
x = self.layer2(x)
x = self.layer3(x)
return x
带有ReLu激