使用pytorch构建图卷积网络预测化学分子性质

本文涉及的产品
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
实时计算 Flink 版,5000CU*H 3个月
实时数仓Hologres,5000CU*H 100GB 3个月
简介: 在本文中,我们将通过化学的视角探索图卷积网络,我们将尝试将网络的特征与自然科学中的传统模型进行比较,并思考为什么它的工作效果要比传统的方法好。

图和图神经网络

化学或物理中的模型通常是一个连续函数,例如y=f(x₁,x₂,x₃,…,x),其中x₁,x₂,x₃,…,x是输入,y是输出。这种模型的一个例子是确定两个点电荷q 1和q 2之间的静电相互作用(或力)的方程,它们之间的距离r存在于具有相对介电常数εᵣ的介质中,通常称为库仑定律。

如果我们不知道这种关系,我们只有多个数据点,每个数据点都包括点电荷(输出)和相应的输入之间的相互作用,那么可以拟合人工神经网络来预测在具有指定介电常数的介质中任何给定分离的任何给定点电荷的相互作用,因为为物理问题创建数据驱动模型相对简单。

但是考虑从分子结构预测某一特定性质的问题,比如在水中的溶解度。没有一组明显的输入来描述一个分子,虽然可以使用各种特性,例如键长、键角、不同类型元素的数量、环的数量等等。但是并不能保证任何这样的任意集合一定能很好地适用于所有分子。

另外与点电荷的例子不同,输入不一定驻留在连续空间中。例如,我们可以把甲醇、乙醇和丙醇想象成一组链长不断增加的分子;链长是一个离散的参数,没有办法在甲醇和乙醇之间插入来得到其他分子。具有连续的输入空间对于计算模型的导数是必不可少的,然后可以用于所选属性的优化。

为了克服这些问题人们提出了各种分子编码方法。其中一种方法是使用SMILES和SELFIES等进行文本表示。关于这种表示有大量的文献,有兴趣的话可以搜索阅读。第二种方法是用图形表示分子。虽然每种方法都有其优点和缺点,但图形表示对化学来说更直观。

图是一种数学结构,由表示节点之间关系的边连接的节点组成。分子自然适应这种结构——原子成为节点,化学键成为边缘。图中的每个节点都由一个向量表示,该向量编码相应原子的属性。通常,独热编码模式就足够了(下一节将对此进行详细介绍)。这些向量可以堆叠以创建节点矩阵。节点之间的关系——用边表示——可以通过一个方形邻接矩阵来描述,其中每个元素a′′ⱼ要么是1,要么是0,这取决于两个节点i和j是否分别由边连接。对角线元素设置为1,表示自连接,这使得矩阵可以进行卷积。这些节点和邻接矩阵将作为我们模型的输入。

神经网络模型接受一维输入向量。对于多维输入,例如图像则使用一类称为卷积神经网络的模型。在我们的例子中,也是二维矩阵作为输入。图神经网络被开发用于操作这样的节点和邻接矩阵,将它们转换成合适的一维向量,然后可以通过普通人工神经网络的隐藏层来生成输出。有许多类型的图神经网络,如图卷积网络、消息传递网络、图注意网络等,它们的主要区别在于在图中的节点和边之间交换信息的方法不同。由于图卷积网络相对简单,我们将仔细研究它。

图卷积和池化层

输入的初始状态,节点矩阵表示每行中每个原子的独热编码,其中原子序数为n的原子在第n个索引处为1,在其他地方为0。邻接矩阵表示节点之间的连接。在当前状态下,节点矩阵不能作为人工神经网络的输入,因为:(1)它是二维的,(2)它不是置换不变的,(3)它不是唯一的。在这种情况下,排列不变性意味着无论你如何排列节点,输入都应该保持不变;同一分子可以由同一节点矩阵的多个排列表示(假设邻接矩阵中也有适当的排列)。

对于前两个问题,有一个简单的解决方案——池化。如果节点矩阵沿着列维度池化,那么它将被简化为一个排列不变的一维向量。通常,这种池化是一个简单的均值池化,这意味着最终的池化向量包含节点矩阵中每列的均值。但是池化两个异构体的节点矩阵,如正戊烷和新戊烷,将产生相同的池化向量,也就是说解决第三个问题还需要其他的方法。

为了使最终的池化向量唯一,需要在节点矩阵中合并一些邻居信息。对于同分异构体,虽然它们的化学式相同,但它们的结构却不同。合并邻居信息的一种简单方法是对每个节点及其邻居执行一些操作,例如求和。这可以表示为节点和邻接矩阵的乘法:邻接矩阵乘以节点矩阵产生一个更新的节点矩阵,每个节点向量等于它的邻居节点向量与它自己的和,这个和通过预乘以对角度矩阵的逆,通过每个节点的度(或邻居的数量)进行归一化,使其成为邻居的平均值。最后这个乘积后乘一个权重矩阵,整个操作称为图卷积。下图显示了一个直观而简单的图卷积形式

Thomas Kipf和Max Welling的工作提供了一个数学上更严格和数值上更稳定的形式,使用邻接矩阵的修改归一化。卷积和池化操作的组合也可以被解释为经验群体贡献方法的非线性形式。

图卷积网络的最终结构如下:首先计算给定分子的节点矩阵和邻接矩阵,然后池化以产生包含有关分子的所有信息的单个向量。通过标准人工神经网络的隐藏层来产生输出。隐藏层、池化层和卷积层的权重通过应用于基于回归的损失函数(如均方损失)的反向传播同时确定。

Pytorch代码实现

上面我们讨论了图卷积网络相关的所有关键思想,下面开始使用PyTorch进行简单的实现。虽然有一个灵活的、高性能的gnn框架PyTorch Geometric,但我们不会使用它,因为我们的目标是深入我们的理解。

1、使用RDKit创建图

RDKit是一个化学信息学库,允许高通量访问小分子的特性。我们将需要它完成两个任务——将分子中每个原子的原子序数变为1——对节点矩阵进行编码并获得邻接矩阵。我们假设分子是根据它们的SMILES字符串提供的(这对于大多数化学信息学数据都是正确的)。为了确保节点矩阵和邻接矩阵的大小在所有分子中都是一致的(这在默认情况下是不可能的,因为两者的大小都取决于分子中的原子数量)我们用0填充矩阵。

除此以外我们将对上面提出的卷积进行一个小的修改——将邻接矩阵中的“1”替换为相应键长的倒数。通过这种方式,网络将获得更多关于分子几何形状的信息,并且它还将根据相邻键的长度对每个节点周围的卷积进行加权。

 class Graph:
     def __init__(
         self, molecule_smiles: str,
         node_vec_len: int,
         max_atoms: int = None
       ):
         # Store properties
         self.smiles = molecule_smiles
         self.node_vec_len = node_vec_len
         self.max_atoms = max_atoms

         # Call helper function to convert SMILES to RDKit mol
         self.smiles_to_mol()

         # If valid mol is created, generate a graph of the mol
         if self.mol is not None:
             self.smiles_to_graph()

     def smiles_to_mol(self):
         # Use MolFromSmiles from RDKit to get molecule object
         mol = Chem.MolFromSmiles(self.smiles)

         # If a valid mol is not returned, set mol as None and exit
         if mol is None:
             self.mol = None
             return

         # Add hydrogens to molecule
         self.mol = Chem.AddHs(mol)

     def smiles_to_graph(self):
         # Get list of atoms in molecule
         atoms = self.mol.GetAtoms()

         # If max_atoms is not provided, max_atoms is equal to maximum number 
         # of atoms in this molecule. 
         if self.max_atoms is None:
             n_atoms = len(list(atoms))
         else:
             n_atoms = self.max_atoms

         # Create empty node matrix
         node_mat = np.zeros((n_atoms, self.node_vec_len))

         # Iterate over atoms and add to node matrix
         for atom in atoms:
             # Get atom index and atomic number
             atom_index = atom.GetIdx()
             atom_no = atom.GetAtomicNum()

             # Assign to node matrix
             node_mat[atom_index, atom_no] = 1

         # Get adjacency matrix using RDKit
         adj_mat = rdmolops.GetAdjacencyMatrix(self.mol)
         self.std_adj_mat = np.copy(adj_mat)

         # Get distance matrix using RDKit
         dist_mat = molDG.GetMoleculeBoundsMatrix(self.mol)
         dist_mat[dist_mat == 0.] = 1

         # Get modified adjacency matrix with inverse bond lengths
         adj_mat = adj_mat * (1 / dist_mat)

         # Pad the adjacency matrix with 0s
         dim_add = n_atoms - adj_mat.shape[0]
         adj_mat = np.pad(
             adj_mat, pad_width=((0, dim_add), (0, dim_add)), mode="constant"
         )

         # Add an identity matrix to adjacency matrix
         # This will make an atom its own neighbor
         adj_mat = adj_mat + np.eye(n_atoms)

         # Save both matrices
         self.node_mat = node_mat
         self.adj_mat = adj_mat

2、在生成Dataset

PyTorch提供了一个方便的Dataset类来存储和访问各种数据。我们将用它来获取节点和邻接矩阵以及每个分子的输出。

 class GraphData(Dataset):
     def __init__(self, dataset_path: str, node_vec_len: int, max_atoms: int):
         # Save attributes
         self.node_vec_len = node_vec_len
         self.max_atoms = max_atoms

         # Open dataset file
         df = pd.read_csv(dataset_path)

         # Create lists
         self.indices = df.index.to_list()
         self.smiles = df["smiles"].to_list()
         self.outputs = df["measured log solubility in mols per litre"].to_list()

     def __len__(self):
         return len(self.indices)

     def __getitem__(self, i: int):
         # Get smile
         smile = self.smiles[i]

         # Create MolGraph object using the Graph abstraction
         mol = Graph(smile, self.node_vec_len, self.max_atoms)

         # Get node and adjacency matrices
         node_mat = torch.Tensor(mol.node_mat)
         adj_mat = torch.Tensor(mol.adj_mat)

         # Get output
         output = torch.Tensor([self.outputs[i]])

         return (node_mat, adj_mat), output, smile

除此以外,我们还需要自定义collate函数,来使得dataset可以进行批处理,也就是说把单一的dataset合并成一个batch

 def collate_graph_dataset(dataset: Dataset):
     # Create empty lists of node and adjacency matrices, outputs, and smiles
     node_mats = []
     adj_mats = []
     outputs = []
     smiles = []

     # Iterate over list and assign each component to the correct list
     for i in range(len(dataset)):
         (node_mat,adj_mat), output, smile = dataset[i]
         node_mats.append(node_mat)
         adj_mats.append(adj_mat)
         outputs.append(output)
         smiles.append(smile)


     # Create tensors
     node_mats_tensor = torch.cat(node_mats, dim=0)
     adj_mats_tensor = torch.cat(adj_mats, dim=0)
     outputs_tensor = torch.stack(outputs, dim=0)

     # Return tensors
     return (node_mats_tensor, adj_mats_tensor), outputs_tensor, smiles

3、图卷积网络

在完成了数据处理之后现在可以构建模型了,这里为了学习将构建自己的卷积层和池化层,但如果在实际使用时可以直接使用PyTorch Geometric模块。卷积层基本上做三件事-(1)计算邻接矩阵的反对角度矩阵,(2)四个矩阵的乘法(D⁻¹ANW),(3)对层输出应用非线性激活函数。与其他PyTorch类一样,我们将继承Module基类。

 class ConvolutionLayer(nn.Module):
     def __init__(self, node_in_len: int, node_out_len: int):
         # Call constructor of base class
         super().__init__()

         # Create linear layer for node matrix
         self.conv_linear = nn.Linear(node_in_len, node_out_len)

         # Create activation function
         self.conv_activation = nn.LeakyReLU()

     def forward(self, node_mat, adj_mat):
         # Calculate number of neighbors
         n_neighbors = adj_mat.sum(dim=-1, keepdims=True)
         # Create identity tensor
         self.idx_mat = torch.eye(
             adj_mat.shape[-2], adj_mat.shape[-1], device=n_neighbors.device
         )
         # Add new (batch) dimension and expand
         idx_mat = self.idx_mat.unsqueeze(0).expand(*adj_mat.shape)
         # Get inverse degree matrix
         inv_degree_mat = torch.mul(idx_mat, 1 / n_neighbors)

         # Perform matrix multiplication: D^(-1)AN
         node_fea = torch.bmm(inv_degree_mat, adj_mat)
         node_fea = torch.bmm(node_fea, node_mat)

         # Perform linear transformation to node features 
         # (multiplication with W)
         node_fea = self.conv_linear(node_fea)

         # Apply activation
         node_fea = self.conv_activation(node_fea)

         return node_fea

接下来,让我们构造只执行一个操作,即沿第二维(节点数)取平均值的PoolingLayer层。

 class PoolingLayer(nn.Module):
     def __init__(self):
         # Call constructor of base class
         super().__init__()

     def forward(self, node_fea):
         # Pool the node matrix
         pooled_node_fea = node_fea.mean(dim=1)
         return pooled_node_fea

最后就是创建包含卷积层、池化层和隐藏层的ChemGCN类。我们将对所有的层输出应用LeakyReLU激活函数,还将使用dropout来最小化过拟合。

 class ChemGCN(nn.Module):
     def __init__(
         self,
         node_vec_len: int,
         node_fea_len: int,
         hidden_fea_len: int,
         n_conv: int,
         n_hidden: int,
         n_outputs: int,
         p_dropout: float = 0.0,
     ):
         # Call constructor of base class
         super().__init__()

         # Define layers
         # Initial transformation from node matrix to node features
         self.init_transform = nn.Linear(node_vec_len, node_fea_len)

         # Convolution layers
         self.conv_layers = nn.ModuleList(
             [
                 ConvolutionLayer(
                     node_in_len=node_fea_len,
                     node_out_len=node_fea_len,
                 )
                 for i in range(n_conv)
             ]
         )

         # Pool convolution outputs
         self.pooling = PoolingLayer()
         pooled_node_fea_len = node_fea_len

         # Pooling activation
         self.pooling_activation = nn.LeakyReLU()

         # From pooled vector to hidden layers
         self.pooled_to_hidden = nn.Linear(pooled_node_fea_len, hidden_fea_len)

         # Hidden layer
         self.hidden_layer = nn.Linear(hidden_fea_len, hidden_fea_len)

         # Hidden layer activation function
         self.hidden_activation = nn.LeakyReLU()

         # Hidden layer dropout
         self.dropout = nn.Dropout(p=p_dropout)

         # If hidden layers more than 1, add more hidden layers
         self.n_hidden = n_hidden
         if self.n_hidden > 1:
             self.hidden_layers = nn.ModuleList(
                 [self.hidden_layer for _ in range(n_hidden - 1)]
             )
             self.hidden_activation_layers = nn.ModuleList(
                 [self.hidden_activation for _ in range(n_hidden - 1)]
             )
             self.hidden_dropout_layers = nn.ModuleList(
                 [self.dropout for _ in range(n_hidden - 1)]
             )

         # Final layer going to the output
         self.hidden_to_output = nn.Linear(hidden_fea_len, n_outputs)

     def forward(self, node_mat, adj_mat):
         # Perform initial transform on node_mat
         node_fea = self.init_transform(node_mat)

         # Perform convolutions
         for conv in self.conv_layers:
             node_fea = conv(node_fea, adj_mat)

         # Perform pooling
         pooled_node_fea = self.pooling(node_fea)
         pooled_node_fea = self.pooling_activation(pooled_node_fea)

         # First hidden layer
         hidden_node_fea = self.pooled_to_hidden(pooled_node_fea)
         hidden_node_fea = self.hidden_activation(hidden_node_fea)
         hidden_node_fea = self.dropout(hidden_node_fea)

         # Subsequent hidden layers
         if self.n_hidden > 1:
             for i in range(self.n_hidden - 1):
                 hidden_node_fea = self.hidden_layers[i](hidden_node_fea)
                 hidden_node_fea = self.hidden_activation_layers[i](hidden_node_fea)
                 hidden_node_fea = self.hidden_dropout_layers[i](hidden_node_fea)

         # Output
         out = self.hidden_to_output(hidden_node_fea)

         return out

4、训练

最后就是编写辅助函数来训练和测试我们的模型,并编写脚本来运行一个制作图形、构建网络和训练模型的工作流。

首先,我们将定义一个标准化类来标准化输出,这有助于快速收敛

 class Standardizer:
     def __init__(self, X):
         self.mean = torch.mean(X)
         self.std = torch.std(X)

     def standardize(self, X):
         Z = (X - self.mean) / (self.std)
         return Z

     def restore(self, Z):
         X = self.mean + Z * self.std
         return X

     def state(self):
         return {"mean": self.mean, "std": self.std}

     def load(self, state):
         self.mean = state["mean"]
         self.std = state["std"]

然后就是我们的训练过程:

 def train_model(
     epoch,
     model,
     training_dataloader,
     optimizer,
     loss_fn,
     standardizer,
     use_GPU,
     max_atoms,
     node_vec_len,
 ):
     # Create variables to store losses and error
     avg_loss = 0
     avg_mae = 0
     count = 0

     # Switch model to train mode
     model.train()

     # Go over each batch in the dataloader
     for i, dataset in enumerate(training_dataloader):
         # Unpack data
         node_mat = dataset[0][0]
         adj_mat = dataset[0][1]
         output = dataset[1]

         # Reshape inputs
         first_dim = int((torch.numel(node_mat)) / (max_atoms * node_vec_len))
         node_mat = node_mat.reshape(first_dim, max_atoms, node_vec_len)
         adj_mat = adj_mat.reshape(first_dim, max_atoms, max_atoms)

         # Standardize output
         output_std = standardizer.standardize(output)

         # Package inputs and outputs; check if GPU is enabled
         if use_GPU:
             nn_input = (node_mat.cuda(), adj_mat.cuda())
             nn_output = output_std.cuda()
         else:
             nn_input = (node_mat, adj_mat)
             nn_output = output_std

         # Compute output from network
         nn_prediction = model(*nn_input)

         # Calculate loss
         loss = loss_fn(nn_output, nn_prediction)
         avg_loss += loss

         # Calculate MAE
         prediction = standardizer.restore(nn_prediction.detach().cpu())
         mae = mean_absolute_error(output, prediction)
         avg_mae += mae

         # Set zero gradients for all tensors
         optimizer.zero_grad()

         # Do backward prop
         loss.backward()

         # Update optimizer parameters
         optimizer.step()

         # Increase count
         count += 1

     # Calculate avg loss and MAE
     avg_loss = avg_loss / count
     avg_mae = avg_mae / count

     # Print stats
     print(
         "Epoch: [{0}]\tTraining Loss: [{1:.2f}]\tTraining MAE: [{2:.2f}]"\
            .format(
                     epoch, avg_loss, avg_mae
            )
     )

     # Return loss and MAE
     return avg_loss, avg_mae

最后,这个脚本将调用上面定义的所有内容。

 #### Fix seeds
 np.random.seed(0)
 torch.manual_seed(0)
 use_GPU = torch.cuda.is_available()

 #### Inputs
 max_atoms = 200
 node_vec_len = 60
 train_size = 0.7
 batch_size = 32
 hidden_nodes = 60
 n_conv_layers = 4
 n_hidden_layers = 2
 learning_rate = 0.01
 n_epochs = 50

 #### Start by creating dataset
 main_path = Path(__file__).resolve().parent
 data_path = main_path / "data" / "solubility_data.csv"
 dataset = GraphData(dataset_path=data_path, max_atoms=max_atoms, 
                         node_vec_len=node_vec_len)

 #### Split data into training and test sets
 # Get train and test sizes
 dataset_indices = np.arange(0, len(dataset), 1)
 train_size = int(np.round(train_size * len(dataset)))
 test_size = len(dataset) - train_size

 # Randomly sample train and test indices
 train_indices = np.random.choice(dataset_indices, size=train_size, 
                                                             replace=False)
 test_indices = np.array(list(set(dataset_indices) - set(train_indices)))

 # Create dataoaders
 train_sampler = SubsetRandomSampler(train_indices)
 test_sampler = SubsetRandomSampler(test_indices)
 train_loader = DataLoader(dataset, batch_size=batch_size, 
                           sampler=train_sampler, 
                           collate_fn=collate_graph_dataset)
 test_loader = DataLoader(dataset, batch_size=batch_size, 
                          sampler=test_sampler,
                          collate_fn=collate_graph_dataset)

 #### Initialize model, standardizer, optimizer, and loss function
 # Model
 model = ChemGCN(node_vec_len=node_vec_len, node_fea_len=hidden_nodes,
                 hidden_fea_len=hidden_nodes, n_conv=n_conv_layers, 
                 n_hidden=n_hidden_layers, n_outputs=1, p_dropout=0.1)
 # Transfer to GPU if needed
 if use_GPU:
     model.cuda()

 # Standardizer
 outputs = [dataset[i][1] for i in range(len(dataset))]
 standardizer = Standardizer(torch.Tensor(outputs))

 # Optimizer
 optimizer = torch.optim.Adam(model.parameters(), lr=learning_rate)

 # Loss function
 loss_fn = torch.nn.MSELoss()

 #### Train the model
 loss = []
 mae = []
 epoch = []
 for i in range(n_epochs):
     epoch_loss, epoch_mae = train_model(
         i,
         model,
         train_loader,
         optimizer,
         loss_fn,
         standardizer,
         use_GPU,
         max_atoms,
         node_vec_len,
     )
     loss.append(epoch_loss)
     mae.append(epoch_mae)
     epoch.append(i)

 #### Test the model
 # Call test model function
 test_loss, test_mae = test_model(model, test_loader, loss_fn, standardizer,
                                  use_GPU, max_atoms, node_vec_len)

 #### Print final results
 print(f"Training Loss: {loss[-1]:.2f}")
 print(f"Training MAE: {mae[-1]:.2f}")
 print(f"Test Loss: {test_loss:.2f}")
 print(f"Test MAE: {test_mae:.2f}")

结果

我们在开源DeepChem存储库的溶解度数据集上进行训练,该存储库包含约1000个小分子的水溶性。下图显示了一个特定训练-测试分层的测试集的训练损失曲线图。训练集和测试集的平均绝对误差分别为0.59和0.58 (log mol/l),低于线性模型的0.69 log mol/l(基于数据集中的预测)。可以看到神经网络比线性回归模型表现得更好;这种比较虽然粗略,但是我们的模型所做的预测是合理的。

总结

我们通过一个简单的化学问题介绍了图卷积网络的基本原理,实现了自己的网络,并且对比基类模型,证明了我们模型的有效性,这是我们学习GCN的第一步。

本文完整的代码在GitHub地址如下:

https://avoid.overfit.cn/post/7cfa0930651b4b4cac912952d8c53d54

作者:Gaurav Deshmukh

相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
目录
相关文章
|
6天前
|
并行计算 监控 搜索推荐
使用 PyTorch-BigGraph 构建和部署大规模图嵌入的完整教程
当处理大规模图数据时,复杂性难以避免。PyTorch-BigGraph (PBG) 是一款专为此设计的工具,能够高效处理数十亿节点和边的图数据。PBG通过多GPU或节点无缝扩展,利用高效的分区技术,生成准确的嵌入表示,适用于社交网络、推荐系统和知识图谱等领域。本文详细介绍PBG的设置、训练和优化方法,涵盖环境配置、数据准备、模型训练、性能优化和实际应用案例,帮助读者高效处理大规模图数据。
33 5
|
8天前
|
SQL 安全 前端开发
PHP与现代Web开发:构建高效的网络应用
【10月更文挑战第37天】在数字化时代,PHP作为一门强大的服务器端脚本语言,持续影响着Web开发的面貌。本文将深入探讨PHP在现代Web开发中的角色,包括其核心优势、面临的挑战以及如何利用PHP构建高效、安全的网络应用。通过具体代码示例和最佳实践的分享,旨在为开发者提供实用指南,帮助他们在不断变化的技术环境中保持竞争力。
|
10天前
|
机器学习/深度学习 人工智能 自然语言处理
深度学习中的卷积神经网络:从理论到实践
【10月更文挑战第35天】在人工智能的浪潮中,深度学习技术以其强大的数据处理能力成为科技界的宠儿。其中,卷积神经网络(CNN)作为深度学习的一个重要分支,在图像识别和视频分析等领域展现出了惊人的潜力。本文将深入浅出地介绍CNN的工作原理,并结合实际代码示例,带领读者从零开始构建一个简单的CNN模型,探索其在图像分类任务中的应用。通过本文,读者不仅能够理解CNN背后的数学原理,还能学会如何利用现代深度学习框架实现自己的CNN模型。
|
9天前
|
机器学习/深度学习 人工智能 算法框架/工具
深度学习中的卷积神经网络(CNN)及其在图像识别中的应用
【10月更文挑战第36天】探索卷积神经网络(CNN)的神秘面纱,揭示其在图像识别领域的威力。本文将带你了解CNN的核心概念,并通过实际代码示例,展示如何构建和训练一个简单的CNN模型。无论你是深度学习的初学者还是希望深化理解,这篇文章都将为你提供有价值的见解。
|
12天前
|
监控 安全 网络安全
企业网络安全:构建高效的信息安全管理体系
企业网络安全:构建高效的信息安全管理体系
41 5
|
11天前
|
机器学习/深度学习 TensorFlow 算法框架/工具
利用Python和TensorFlow构建简单神经网络进行图像分类
利用Python和TensorFlow构建简单神经网络进行图像分类
33 3
|
10天前
|
机器学习/深度学习 人工智能 自动驾驶
深入解析深度学习中的卷积神经网络(CNN)
深入解析深度学习中的卷积神经网络(CNN)
27 0
|
13天前
|
机器学习/深度学习 人工智能 TensorFlow
深度学习中的卷积神经网络(CNN)及其在图像识别中的应用
【10月更文挑战第32天】本文将介绍深度学习中的一个重要分支——卷积神经网络(CNN),以及其在图像识别领域的应用。我们将通过一个简单的代码示例,展示如何使用Python和TensorFlow库构建一个基本的CNN模型,并对其进行训练和测试。
|
14天前
|
存储 安全 网络安全
|
6天前
|
存储 SQL 安全
网络安全与信息安全:关于网络安全漏洞、加密技术、安全意识等方面的知识分享
【10月更文挑战第39天】在数字化时代,网络安全和信息安全成为了我们生活中不可或缺的一部分。本文将介绍网络安全漏洞、加密技术和安全意识等方面的内容,帮助读者更好地了解网络安全的重要性,并提供一些实用的技巧和方法来保护自己的信息安全。
19 2