tf.keras.layers.Conv2D

简介: 【8月更文挑战第20天】tf.keras.layers.Conv2D。

tf.keras.layers.Conv2D
tf.keras.layers.Conv2D可配置的参数,主要有:
filters:卷积核的数目(即输出的维度);
kernel_size:卷积核的宽度和长度;
strides:卷积的步长。
padding:补0策略。
padding=“valid”代表只进行有效的卷积,即对边界数据不处理。padding=“same”代表保留边界处的卷积结果,通常会导致输出shape与输入shape相同;
activation:激活函数;
data_format:数据格式,为“channels_first”或“channels_last”之一。以128x128的RGB图像为例,“channels_first”应将数据组织为(3,128,128),而“channels_last”应将数据组织为(128,128,3)。该参数的默认值是~/.keras/keras.json中设置的值,若从未设置过,则为“channels_last”。

其他参数还包括:use_bias;kernel_initializer;bias_initializer;kernel_regularizer;bias_regularizer;activity_regularizer;kernel_constraints;bias_constraints。

代码:
layers.Conv2D(64,[1,1],2,padding='same',activation="relu")

输出:

相关文章
|
22天前
|
机器学习/深度学习 Python
tf.keras.layers.LSTM/tf.keras.layers.LSTMCell
【8月更文挑战第20天】tf.keras.layers.LSTM/tf.keras.layers.LSTMCell。
29 1
|
22天前
tf.keras.layers.Dense
【8月更文挑战第20天】tf.keras.layers.Dense。
30 2
|
24天前
|
算法框架/工具 数据格式
tf.keras.layers.Conv2D
【8月更文挑战第19天】tf.keras.layers.Conv2D。
24 1
|
24天前
tf.keras.layers.MaxPooling2D/AveragePooling2D
【8月更文挑战第19天】tf.keras.layers.MaxPooling2D/AveragePooling2D。
23 0
|
22天前
|
机器学习/深度学习
网络层构建(tf.keras.layers)
【8月更文挑战第20天】网络层构建(tf.keras.layers)。
26 2
|
1月前
tf.zeros(), tf.zeros_like(), tf.ones(),tf.ones_like()
【8月更文挑战第11天】tf.zeros(), tf.zeros_like(), tf.ones(),tf.ones_like()。
24 5
|
1月前
|
机器学习/深度学习 TensorFlow 算法框架/工具
【Tensorflow+Keras】tf.keras.layers.Bidirectional()的解析与使用
本文解析了TensorFlow和Keras中的`tf.keras.layers.Bidirectional()`层,它用于实现双向RNN(如LSTM、GRU)的神经网络结构。文章详细介绍了该层的参数配置,并通过实例演示了如何构建含有双向LSTM层的模型,以及如何使用IMDB数据集进行模型训练和评估。
41 8
|
机器学习/深度学习 PyTorch 算法框架/工具
pytorch中nn.ReLU()和F.relu()有什么区别?
pytorch中nn.ReLU()和F.relu()有什么区别?
468 0
|
机器学习/深度学习 PyTorch 算法框架/工具
【PyTorch】nn.ReLU()与F.relu()的区别
【PyTorch】nn.ReLU()与F.relu()的区别
138 0
|
PyTorch 算法框架/工具
PyTorch的nn.Linear()详解
从输入输出的张量的shape角度来理解,相当于一个输入为[batch_size, in_features]的张量变换成了[batch_size, out_features]的输出张量。
447 0