Net的网络层的构建(源码分析)

简介: 概述网络层的构建是在Net::Init()函数中完成的,构建的流程图如下所示: 从图中可以看出网络层的构建分为三个主要部分:解析网络文件、开始建立网络层、网络层需要参与计算的位置。解析网络文件该部分主要有两个函数FilterNet()、InsertSplits()。

概述

网络层的构建是在Net<Dtype>::Init()函数中完成的,构建的流程图如下所示:

 

从图中可以看出网络层的构建分为三个主要部分:解析网络文件、开始建立网络层、网络层需要参与计算的位置。

解析网络文件

该部分主要有两个函数FilterNet()InsertSplits() 

1 void Net<Dtype>::Init(const NetParameter& in_param) {
2   CHECK(Caffe::root_solver() || root_net_)
3       << "root_net_ needs to be set for all non-root solvers";
4   // Set phase from the state.
5   phase_ = in_param.state().phase();
6   // Filter layers based on their include/exclude rules and
7   // the current NetState.
8   NetParameter filtered_param;
9   FilterNet(in_param, &filtered_param);

 FilterNet()的作用是模型参数文件(*.prototxt)中的不符合规则的层去掉。例如:在caffeexamples/mnist中的lenet网络中,如果只是用于网络的前向,则需要将包含train的数据层去掉。 

1 /*
2     *调用InsertSplits()函数,对于底层的一个输出blob对应多个上层的情况,
3     *则要在加入分裂层,形成新的网络。
4     *函数从filtered_param读入新网络到param
5     **/
6   InsertSplits(filtered_param, &param);

 InsertSplits()函数的作用是对于底层的一个输出blob对应多个上层的情况,则要在加入分裂层,形成新的网络。这么做的主要原因是多个层反传给该blob的梯度需要累加例如:LeNet网络中的数据层的top label blob对应两个输入层,分别是accuracy层和loss层,那么需要在数据层在插入一层。如下图:

 

建立网络层

 该部分重要的函数有CreateLayer()AppendBottom()AppendTop()SetUp() 

 1   ...............
 2   //(很大的一个for循环)对每一层处理
 3   for (int layer_id = 0; layer_id < param.layer_size(); ++layer_id) {//开始遍历所有层
 4       ............
 5     // Setup layer.
 6     //param.layers(i)返回的是关于第当前层的参数:
 7     const LayerParameter& layer_param = param.layer(layer_id);
 8     if (share_from_root) {
 9       ............
10     } else {
11     /*
12      *把当前层的参数转换为shared_ptr<Layer<Dtype>>,
13       *创建一个具体的层,并压入到layers_中
14     */
15       layers_.push_back(LayerRegistry<Dtype>::CreateLayer(layer_param));
16     }

 对于CreateLayer()函数,把解析的当前层调用CreatorRegistry类进行注册,从而获取到当前层。然后会调用AppendBottom()AppendTop()函数具体创建层结构。 

1 //下面开始产生当前层:分别处理bottom的blob和top的blob两个步骤
2     for (int bottom_id = 0; bottom_id < layer_param.bottom_size(); ++bottom_id) {
3       const int blob_id = AppendBottom(param, layer_id, bottom_id,
4 &available_blobs, &blob_name_to_idx);
5       need_backward |= blob_need_backward_[blob_id];
6     }

对于AppendBottom()函数,其作用是为该层创建bottom blob,由于网络是堆叠而成,即:当前层的输出 bottom是前一层的输出top blob,因此此函数并没没有真正的创建blob,只是在将前一层的指针压入到了bottom_vecs_中。

1 int num_top = layer_param.top_size();
2     for (int top_id = 0; top_id < num_top; ++top_id) {
3       AppendTop(param, layer_id, top_id, &available_blobs, &blob_name_to_idx);
4       ...............
5     }

 对于AppendBottom()函数,其作用是为该层创建top blob,该函数真正的new的一个blob的对象。并将top blob 的指针压入到top_vecs_中。经过这两个函数网络层创建出该层所有的输入、输出blob,接下来就是调用SetUp()函数,正式建立层结构,并为blob分配内存空间。

 1 //层已经连接完成,开始建立关系
 2     if (share_from_root) {
 3       // Set up size of top blobs using root_net_
 4       const vector<Blob<Dtype>*>& base_top = root_net_->top_vecs_[layer_id];
 5       const vector<Blob<Dtype>*>& this_top = this->top_vecs_[layer_id];
 6       for (int top_id = 0; top_id < base_top.size(); ++top_id) {
 7         this_top[top_id]->ReshapeLike(*base_top[top_id]);
 8       }
 9     } else {
10       layers_[layer_id]->SetUp(bottom_vecs_[layer_id], top_vecs_[layer_id]);
11 }
12 
13 //SetUp()函数的具体内容
14 void SetUp(const vector<Blob<Dtype>*>& bottom, const vector<Blob<Dtype>*>& top) {
15     InitMutex();
16     CheckBlobCounts(bottom, top);
17     LayerSetUp(bottom, top);
18     Reshape(bottom, top);
19     SetLossWeights(top);
20   }

 对于SetUp()函数,包含了CheckBlobCounts()LayerSetUp()SetLossWeights()Reshape()等子函数,CheckBlobCounts()函数式读取Blob的数量,LayerSetUp()Reshape()是虚函数,会在相应的层中实现这两个函数,SetLossWeights(top)函数会把top(输出blob)loss weight进行初始化,loss weight是用来表不同Layer产生的loss的重要性,Layer名称中以Loss结尾表示这是一个会产生lossLayer,其他的Layer只是单纯的用于中间计算,同时每一层的loss值就是所有输出top blobloss值的和。到此当前层的结构建立完成。经过多次循环,就可以构建整个网络。

确定网络层需要计算的blob

该部分的作用是确定哪些层或哪些层的blob需要参与计算,比如前向时需要确定哪些层的blob需要计算loss,后向时确定哪些层的blob需要计算diff。一个layer是否需要backward computation,主要依据两个方面:

  (1)layertop blob 是否参与loss的计算;

  (2)layerbottom blob 是否需要backward computation,比如Data层一般就不需要backward computation

对于前向的过程,部分源码如下: 

 1     ..............
 2 for (int param_id = 0; param_id < num_param_blobs; ++param_id) {
 3       const ParamSpec* param_spec = (param_id < param_size) ?
 4           &layer_param.param(param_id) : &default_param_spec;
 5       const bool param_need_backward = param_spec->lr_mult() != 0;
 6       need_backward |= param_need_backward;
 7       layers_[layer_id]->set_param_propagate_down(param_id, param_need_backward);
 8     } 
 9  for (int param_id = 0; param_id < num_param_blobs; ++param_id) {
10      ...........
11       AppendParam(param, layer_id, param_id);
12     }

 AppendParam()函数的作用是记录带有参数的层或者blob对于某些有参数的层,例如:卷基层、全连接层有weightbias。该函数主要是修改和参数有关的变量,实际的层参数的blob在上面提到的setup()函数中已经创建。对于后向的过程和前向类似,部分源码如下:

 1 if (param.force_backward()) {
 2     for (int layer_id = 0; layer_id < layers_.size(); ++layer_id) {//迭代所有层
 3       layer_need_backward_[layer_id] = true;//需要参与backward
 4       for (int bottom_id = 0;
 5            bottom_id < bottom_need_backward_[layer_id].size(); ++bottom_id) {//每一层下的需要计算diff的所有blob
 6         bottom_need_backward_[layer_id][bottom_id] =
 7             bottom_need_backward_[layer_id][bottom_id] ||
 8             layers_[layer_id]->AllowForceBackward(bottom_id);
 9         blob_need_backward_[bottom_id_vecs_[layer_id][bottom_id]] =
10             blob_need_backward_[bottom_id_vecs_[layer_id][bottom_id]] ||
11             bottom_need_backward_[layer_id][bottom_id];
12       }
13       for (int param_id = 0; param_id < layers_[layer_id]->blobs().size();
14            ++param_id) {//设置不需要计算参数的层
15         layers_[layer_id]->set_param_propagate_down(param_id, true);
16       }
17     }
18   }

 

当神已无能为力,那便是魔渡众生
目录
相关文章
|
2月前
|
前端开发 JavaScript 开发者
JavaScript:构建动态网络的引擎
JavaScript:构建动态网络的引擎
|
4月前
|
机器学习/深度学习 算法 量子技术
GQNN框架:让Python开发者轻松构建量子神经网络
为降低量子神经网络的研发门槛并提升其实用性,本文介绍一个名为GQNN(Generalized Quantum Neural Network)的Python开发框架。
109 4
GQNN框架:让Python开发者轻松构建量子神经网络
|
2月前
|
人工智能 监控 数据可视化
如何破解AI推理延迟难题:构建敏捷多云算力网络
本文探讨了AI企业在突破算力瓶颈后,如何构建高效、稳定的网络架构以支撑AI产品化落地。文章分析了典型AI IT架构的四个层次——流量接入层、调度决策层、推理服务层和训练算力层,并深入解析了AI架构对网络提出的三大核心挑战:跨云互联、逻辑隔离与业务识别、网络可视化与QoS控制。最终提出了一站式网络解决方案,助力AI企业实现多云调度、业务融合承载与精细化流量管理,推动AI服务高效、稳定交付。
|
7月前
|
边缘计算 安全 算法
阿里云CDN:构建全球化智能加速网络的数字高速公路
阿里云CDN构建全球化智能加速网络,拥有2800多个边缘节点覆盖67个国家,实现毫秒级网络延迟。其三级节点拓扑结构与智能路由系统,结合流量预测模型,确保高命中率。全栈式加速技术包括QUIC协议优化和Brotli压缩算法,保障安全与性能。五层防御机制有效抵御攻击,行业解决方案涵盖视频、物联网及游戏等领域,支持新兴AR/VR与元宇宙需求,持续推动数字内容分发技术边界。
503 13
|
1月前
|
机器学习/深度学习 分布式计算 Java
Java与图神经网络:构建企业级知识图谱与智能推理系统
图神经网络(GNN)作为处理非欧几里得数据的前沿技术,正成为企业知识管理和智能推理的核心引擎。本文深入探讨如何在Java生态中构建基于GNN的知识图谱系统,涵盖从图数据建模、GNN模型集成、分布式图计算到实时推理的全流程。通过具体的代码实现和架构设计,展示如何将先进的图神经网络技术融入传统Java企业应用,为构建下一代智能决策系统提供完整解决方案。
277 0
|
2月前
|
机器学习/深度学习 算法 搜索推荐
从零开始构建图注意力网络:GAT算法原理与数值实现详解
本文详细解析了图注意力网络(GAT)的算法原理和实现过程。GAT通过引入注意力机制解决了图卷积网络(GCN)中所有邻居节点贡献相等的局限性,让模型能够自动学习不同邻居的重要性权重。
431 0
从零开始构建图注意力网络:GAT算法原理与数值实现详解
|
4月前
|
监控 安全 Go
使用Go语言构建网络IP层安全防护
在Go语言中构建网络IP层安全防护是一项需求明确的任务,考虑到高性能、并发和跨平台的优势,Go是构建此类安全系统的合适选择。通过紧密遵循上述步骤并结合最佳实践,可以构建一个强大的网络防护系统,以保障数字环境的安全完整。
125 12
|
5月前
|
JSON 编解码 API
Go语言网络编程:使用 net/http 构建 RESTful API
本章介绍如何使用 Go 语言的 `net/http` 标准库构建 RESTful API。内容涵盖 RESTful API 的基本概念及规范,包括 GET、POST、PUT 和 DELETE 方法的实现。通过定义用户数据结构和模拟数据库,逐步实现获取用户列表、创建用户、更新用户、删除用户的 HTTP 路由处理函数。同时提供辅助函数用于路径参数解析,并展示如何设置路由器启动服务。最后通过 curl 或 Postman 测试接口功能。章节总结了路由分发、JSON 编解码、方法区分、并发安全管理和路径参数解析等关键点,为更复杂需求推荐第三方框架如 Gin、Echo 和 Chi。
|
7月前
|
人工智能 供应链 安全
2025 年网络法律论坛 | 应对安全风险,构建韧性举措
2025年查尔斯顿网络法律论坛汇聚法律、网络安全与保险行业专家,探讨全球威胁态势、人工智能应用及监管变化等议题。主旨演讲揭示非对称威胁与供应链漏洞,强调透明度和协作的重要性。小组讨论聚焦AI合理使用、监管热点及网络保险现状,提出主动防御与数据共享策略。论坛呼吁跨领域合作,应对快速演变的网络安全挑战,构建更具韧性的防御体系。
216 1
2025 年网络法律论坛 | 应对安全风险,构建韧性举措
|
8月前
|
存储 人工智能 编解码
Deepseek 3FS解读与源码分析(2):网络通信模块分析
2025年2月28日,DeepSeek 正式开源其颠覆性文件系统Fire-Flyer 3FS(以下简称3FS),重新定义了分布式存储的性能边界。本文基于DeepSeek发表的技术报告与开源代码,深度解析 3FS 网络通信模块的核心设计及其对AI基础设施的革新意义。
Deepseek 3FS解读与源码分析(2):网络通信模块分析

热门文章

最新文章