各种层的输入输出尺寸计算的基本方法:
全连接层(Fully Connected Layer):
输入尺寸:(批量大小, 输入特征数)
输出尺寸:(批量大小, 输出特征数)
计算方式:输入特征数与输出特征数之间的全连接,输出尺寸就是设定的输出特征数。
卷积层(Convolutional Layer):
输入尺寸:(批量大小, 输入通道数, 高, 宽)
输出尺寸:(批量大小, 输出通道数, 输出高, 输出宽)
计算方式:
输出高 = (输入高 - 卷积核高 + 2 * 填充) / 步幅 + 1
输出宽 = (输入宽 - 卷积核宽 + 2 * 填充) / 步幅 + 1
池化层(Pooling Layer):
输入尺寸:(批量大小, 输入通道数, 高, 宽)
输出尺寸:(批量大小, 输入通道数, 输出高, 输出宽)
计算方式:
输出高 = (输入高 - 池化核高) / 步幅 + 1
输出宽 = (输入宽 - 池化核宽) / 步幅 + 1
归一化层(Normalization Layer,比如 Batch Normalization):
输入尺寸:(批量大小, 特征数)
输出尺寸:(批量大小, 特征数)
计算方式:通常不改变尺寸,仅对特征进行归一化处理。
激活层(Activation Layer,比如 ReLU):
输入尺寸:(批量大小, 特征数)
输出尺寸:(批量大小, 特征数)
计算方式:不改变尺寸,只是应用激活函数。
这些计算方式可帮助你理解每层的尺寸变换。