需要全部代码请点赞关注收藏后评论区留言私信~~~
全连接层与线性回归
神经网络模型也是参数学习模型,因为对它的学习只是得到神经网络参数的最优值,而神经网络的结构必须事先设计好。如果确实不能通过改进学习过程来达到理想效果,则要重新设计神经网络的结构。
层状神经网络的隐层和输出层具有处理信息的能力,它们又可细分为全连接层、卷积层、池化层、LSTM层等等,通过适当排列可以组合成适应不同任务的网络。
全连接层是层状神经网络最基本的层,本小节从线性回归模型入手,深入讨论全连接层。
线性回归模型改写为:
神经元模型
可以将线性回归看成是神经元模型,其阈值θ=w^(0),其激励函数为等值函数f(x)=x,即该神经元是没有激励函数的特殊神经元。
先定义一个二维平面上的线性目标函数并用它来生成训练样本,再定义一个代表线性回归模型的神经网络,然后用训练样本对该网络进行训练,并在训练的过程中动态显示线性模型的拟合过程。
效果如下
代码如下
### 定义训练样本生成函数 import numpy as np np.random.seed(1101) # 指定随机数种子,产生相同的随机数,便于观察试验结果 def f(x, w=3.0, b=1.0): # 目标函数 return x * w + b def get_data(num): for _ in range(num): x = np.random.uniform(-10.0, 10.0) noise = np.random.normal(0, 3) y = f(x) + noise yield np.array([x]).astype(np.float32), np.array([y]).astype(np.float32) ### 生成训练样本并增强 from mindspore import dataset as ds import matplotlib.pyplot as plt data_number = 80 # 样本总数 batch_size = 16 # 每批训练样本数(批梯度下降法) repeat_size = 1 train_data = list(get_data(data_number)) X, y = zip(*train_data) plt.scatter(X, y, color="black", s=10) xx = np.arange(-10.0, 10, 1) yy = f(xx) plt.plot(xx, yy, color="red", linewidth=1, linestyle='-') plt.show()
按上述方法构建的层被称为全连接层(fully connected layers),它是层状神经网络最基本的层。
全连接层的每一个节点都与上一层的所有节点相连。设前一层的输出为X=(x_1, x_2,…,x_i,…,x_m),本层的输出为Y=(y_1, y_2,…,y_j,…,y_n),其中:
定义连接系数矩阵:
和阈值系数向量:
全连接层的计算可以写成矩阵形式:
在全连接层中,连接系数和阈值系数是要训练的参数,它们一共有m×n+n个。
动态拟合过程,当训练到第十轮左右的时候模型拟合度已经十分高了
代码如下
import numpy as np np.random.seed(1101) # 指定随机数种子,产生相同的随机数,便于观察试验结果 def f(x, w=3.0, b=1.0): # 目标函数 return x * w + b def get_data(num): for _ in range(num): x = np.random.uniform(-10.0, 10.0) noise = np.random.normal(0, 3) y = f(x) + noise yield np.array([x]).astype(np.float32), np.array([y]).astype(np.float32) from mindspore import dataset as ds import matplotlib.pyplot as plt data_number = 80 # 样本总数 batch_size = 16 # 每批训练样本数(批梯度下降法) repeat_size = 1 train_data = list(get_data(data_number)) X, y = zip(*train_data) plt.scatter(X, y, color="black", s=10) xx = np.arange(-10.0, 10, 1) yy = f(xx) plt.plot(xx, yy, color="red", linewidth=1, linestyle='-') plt.show() import time from mindspore import Tensor def plot_model_and_datasets(net, train_data): weight = net.trainable_params()[0] bias = net.trainable_params()[1] x = np.arange(-10, 10, 1) y = x * Tensor(weight).asnumpy()[0][0] + Tensor(bias).asnumpy()[0] x1, y1 = zip(*train_data) x_target = x y_target = f(x_target) plt.axis([-11, 11, -20, 25]) plt.scatter(x1, y1, color="black", s=10) plt.plot(x, y, color="blue", linestyle=':', linewidth=2) plt.plot(x_target, y_target, color="red") plt.show() time.sleep(0.02) from IPython import display from mindspore.train.callback import Callback class ImageShowCallback(Callback): # 回调类 def __init__(self, net, train_data): self.net = net self.train_data = train_data def step_end(self, run_context): plot_model_and_datasets(self.net, self.train_data) display.clear_output(wait=True)
创作不易 觉得有帮助请点赞关注收藏~~~