import torch as t
from torch import nn
from torch.autograd import Variable as V
class Linear(nn.Module): # 全连接层,继承父类nn.Module
def __init__(self,in_features,out_feature): # 初始化 (3)
nn.Module.__init__(self) # 调用nn.Module的构造函数
# 可学习的参数w和b封装成Parameter,默认可求导
self.w = nn.Parameter(t.randn(in_features,out_feature))
self.b = nn.Parameter(t.randn(out_feature))
def forward(self,x): # 前向传播1,Parameter类型属于variable类型,所以也可以调用对应的函数 (8) (10)
x = x.mm(self.w)
y = x + self.b.expand_as(x)
return y
class Perceptron(nn.Module): # 三层感知机,三层分别是输入层、隐藏层和输出层
def __init__(self,in_features,hidden_features,out_features): # 初始化(2)
nn.Module.__init__(self) # 调用nn.Module的构造函数
self.layer1 = Linear(in_features,hidden_features) # 全连接层1,调用Linear构建
self.layer2 = Linear(hidden_features,out_features) # 全连接层2,调用Linear构建
def forward(self,x): # 前向传播2,Parameter类型属于variable类型 (6)
x = self.layer1(x) # 相当于调用前向传播1 (7)
x = t.sigmoid(x) # 激活函数使得取值范围在0到1之间
# print(x.size())
return self.layer2(x) # 相当于调用前向传播1 (9)
perceptron = Perceptron(3,4,1) # 梦开始的地方,也就是构建感知机,输入层是3,隐藏层是4,输出层是1 (1)
for name,param in perceptron.named_parameters(): # 每层全连接层的可学习参数w和b的维度 (4)
print(name,param.size()) # 输出参数维度
input = V(t.randn(2,3))
output = perceptron(input) # 相当于调用前向传播2 (5)
print(output) # 输出y (11)