经典神经网络架构参考 v1.0(2)

简介: 经典神经网络架构参考 v1.0

经典神经网络架构参考 v1.0(1)https://developer.aliyun.com/article/1489283

块 #6 #7 #8:

digraph AlexNetL678 {
  rankdir=BT
    node [
    style=filled, 
    color=Black
    fontcolor=White, 
    fillcolor="#30638e", 
    fontname="SimHei",
    fontsize=32,
    width=5, height=2,
    shape="box",
  ]
    featmap52 [label="[BatchSize,\nW=6, H=6, C=128x2]", shape="Mrecord"]
    reshape [label="reshape([4096])"]
    linear6 [label="Linear6\n[4096, 4096]"]
    relu6 [label="Relu"]
    dropout6 [label="Dropout"]
    linear7 [label="Linear7\n[4096, 4096]"]
    relu7 [label="Relu"]
    dropout7 [label="Dropout"]
    linear8 [label="Linear7\n[4096, 1000]"]
    softmax [label="Softmax"]
    oup [label="输出\n[BatchSize, 1000]", shape="Mrecord"]
    featmap52 -> reshape -> linear6 -> relu6 -> dropout6 ->
        linear7 -> relu7 -> dropout7 -> linear8 -> softmax -> oup
}

3.3 VGG16

主体:

digraph VGG16 {
  rankdir=BT
    node [
    style=filled, 
    color=Black
    fontcolor=White, 
    fillcolor="#30638e", 
    fontname="SimHei",
    fontsize=32,
    width=5, height=2,
    shape="box",
  ]
    inp [label="输入\n[BatchSize,\nW=224, H=224, C=3]", shape="Mrecord"]
  convblock1 [label="ConvBlock1\n[In=3, Out=64]"]
  featmap1 [label="[BatchSize\nW=112, H=112, C=64]", shape="Mrecord"]
  convblock2 [label="ConvBlock2\n[In=64, Out=128]"]
  featmap2 [label="[BatchSize\nW=56, H=56, C=128]", shape="Mrecord"]
  convblock3 [label="ConvBlock3\n[In=128, Out=256]"]
  featmap3 [label="[BatchSize\nW=28, H=28, C=256]", shape="Mrecord"]
  convblock4 [label="ConvBlock4\n[In=256, Out=512]"]
  featmap4 [label="[BatchSize\nW=14, H=14, C=512]", shape="Mrecord"]
  convblock5 [label="ConvBlock5\n[In=512, Out=512]"]
  featmap5 [label="[BatchSize\nW=7, H=7, C=512]", shape="Mrecord"]
  reshape [label="reshape([7x7x512])"]
  linear1 [label="Linear1\n[7x7x512, 4096]"]
  relu1 [label="Relu"]
  linear2 [label="Linear2\n[4096, 4096]"]
  relu2 [label="Relu"]
  linear3 [label="Linear3\n[4096, 1000]"]
  relu3 [label="Relu"]
  linear4 [label="Linear4\n[1000, 1000]"]
  softmax [label="Softmax"]
  oup [label="输出\n[BatchSize, 1000]", shape="Mrecord"]
  inp -> convblock1 -> featmap1 -> convblock2 -> featmap2 ->
    convblock3 -> featmap3 -> convblock4 -> featmap4 -> 
    convblock5 -> featmap5 -> reshape -> linear1 -> relu1 ->
    linear2 -> relu2 -> linear3 -> relu3 -> linear4 -> softmax ->
    oup
}

卷积块:

digraph VGG16ConvBlock {
  rankdir=BT
    node [
    style=filled, 
    color=Black
    fontcolor=White, 
    fillcolor="#30638e", 
    fontname="SimHei",
    fontsize=32,
    width=5, height=2,
    shape="box",
  ]
    inp [label="输入\n[BatchSize, W=BlockW,\n H=BlockH, C=BlockIn]", shape="Mrecord"]
  conv1 [label="Conv2D#1\n[K=3, P=1,\n In=BlockIn,\n Out=BlockOut]"]
  conv2 [label="Conv2D#2\n[K=3, P=1,\n In=BlockOut,\n Out=BlockOut]"]
  relu  [label="relu"]
  maxpool [label="MaxPool2D\n[K=2, S=2]"]
    oup [label="输出\n[BatchSize,\n W=BlockW/2,\n H=BlockH/2,\n C=BlockOut]", shape="Mrecord"]
  inp -> conv1 -> conv2 -> relu -> maxpool -> oup
}

3.4 ResNet18

主体:

digraph ResNet18 {
  rankdir=BT
    node [
    style=filled, 
    color=Black
    fontcolor=White, 
    fillcolor="#30638e", 
    fontname="SimHei",
    fontsize=32,
    width=5, height=2,
    shape="box",
  ]
    inp [label="输入\n[BatchSize,\nW=224, H=224, C=3]", shape="Mrecord"]
    conv0 [label="Conv2D#0\n[K=7, S=2, P=3, In=3, Out=64]"]
    maxpool0 [label="MaxPool2D#0\n[K=3, S=2, P=1]"]
    featmap0 [label="[BatchSize,\nW=56, H=56, C=64]", shape="Mrecord"]
  convblock1 [label="ConvBlock1\n[C=64]"]
  convblock2 [label="ConvBlock2\n[C=64]"]
    featmap2 [label="[BatchSize,\nW=56, H=56, C=64]", shape="Mrecord"]
    downconvblock3 [label="DownConvBlock3\n[In=64, Out=128]"]
  convblock4 [label="ConvBlock4\n[C=128]"]
    featmap4 [label="[BatchSize,\nW=28, H=28, C=128]", shape="Mrecord"]
    downconvblock5 [label="DownConvBlock5\n[In=128, Out=256]"]
  convblock6 [label="ConvBlock6\n[C=256]"]
    featmap6 [label="[BatchSize,\nW=14, H=14, C=256]", shape="Mrecord"]
    downconvblock7 [label="DownConvBlock7\n[In=256, Out=512]"]
  convblock8 [label="ConvBlock8\n[C=512]"]
    featmap8 [label="[BatchSize,\nW=7, H=7, C=512]", shape="Mrecord"]
    avgpool [label="AvgPool2D\n[K=7, S=7]"]
    featmap9 [label="[BatchSize,\nW=1, H=1, C=512]", shape="Mrecord"]
    reshape [label="reshape([512])"]
    linear [label="Linear\n[512, 1000]"]
    softmax [label="Softmax"]
  oup [label="输出\n[BatchSize, 1000]", shape="Mrecord"]
    inp -> conv0 -> maxpool0 -> featmap0 -> convblock1 -> convblock2 -> 
        featmap2 -> downconvblock3 -> convblock4 -> featmap4 ->
        downconvblock5 -> convblock6 -> featmap6 ->
        downconvblock7 -> convblock8 -> featmap8 -> avgpool ->
        featmap9 -> reshape -> linear -> softmax -> oup
}

卷积块:

digraph ResNet18ConvBlock {
  rankdir=BT
    node [
    style=filled, 
    color=Black
    fontcolor=White, 
    fillcolor="#30638e", 
    fontname="SimHei",
    fontsize=32,
    width=5, height=2,
    shape="box",
  ]
    
    inp [label="输入\n[BatchSize,\nW=BlockW, \nH=BlockH, C=BlockC]", shape="Mrecord"]
    conv1 [label="Conv2D#1\n[K=3, P=1,\n In=BlockC,\n Out=BlockC]"]
    relu1 [label="Relu"]
    conv2 [label="Conv2D#2\n[K=3, P=1,\n In=BlockC,\n Out=BlockC]"]
    add   [label="+"]
    relu2 [label="Relu"]
    inp -> conv1 -> relu1 -> conv2 -> add -> relu2 -> oup
    inp -> add
}

经典神经网络架构参考 v1.0(3)https://developer.aliyun.com/article/1489285

相关文章
|
6天前
|
NoSQL 关系型数据库 MySQL
《docker高级篇(大厂进阶):4.Docker网络》包括:是什么、常用基本命令、能干嘛、网络模式、docker平台架构图解
《docker高级篇(大厂进阶):4.Docker网络》包括:是什么、常用基本命令、能干嘛、网络模式、docker平台架构图解
91 56
《docker高级篇(大厂进阶):4.Docker网络》包括:是什么、常用基本命令、能干嘛、网络模式、docker平台架构图解
|
20天前
|
机器学习/深度学习 资源调度 算法
图卷积网络入门:数学基础与架构设计
本文系统地阐述了图卷积网络的架构原理。通过简化数学表述并聚焦于矩阵运算的核心概念,详细解析了GCN的工作机制。
52 3
图卷积网络入门:数学基础与架构设计
|
1月前
|
网络协议 数据挖掘 5G
适用于金融和交易应用的低延迟网络:技术、架构与应用
适用于金融和交易应用的低延迟网络:技术、架构与应用
66 5
|
1月前
|
运维 网络协议 算法
7 层 OSI 参考模型:详解网络通信的层次结构
7 层 OSI 参考模型:详解网络通信的层次结构
122 1
|
1月前
|
供应链 监控 安全
网络安全中的零信任架构:从概念到部署
网络安全中的零信任架构:从概念到部署
|
1月前
|
监控 安全 网络安全
网络安全新前线:零信任架构的实践与挑战
网络安全新前线:零信任架构的实践与挑战
32 0
|
2月前
|
存储 固态存储 安全
阿里云服务器X86计算架构解析与X86计算架构云服务器收费价格参考
阿里云服务器架构分为X86计算、Arm计算、高性能计算等多种架构,其中X86计算是用户选择最多的一种架构,本文将深入探讨阿里云X86计算架构的云服务器,包括其技术特性、适用场景、性能优势以及最新价格情况。
|
2月前
|
编解码 弹性计算 应用服务中间件
阿里云服务器Arm计算架构解析:Arm计算架构云服务器租用收费标准价格参考
阿里云服务器架构分为X86计算、Arm计算、高性能计算等多种架构,其中Arm计算架构以其低功耗、高效率的特点受到广泛关注。本文将深入解析阿里云Arm计算架构云服务器的技术特点、适用场景以及包年包月与按量付费的收费标准与最新活动价格情况,以供选择参考。
|
3月前
|
边缘计算 人工智能 安全
5G 核心网络 (5GC) 与 4G 核心网:架构变革,赋能未来
5G 核心网络 (5GC) 与 4G 核心网:架构变革,赋能未来
210 6
|
3月前
|
存储 安全 网络安全
网络安全与信息安全:构建安全防线的多维策略在当今数字化时代,网络安全已成为维护个人隐私、企业机密和国家安全的关键要素。本文旨在探讨网络安全漏洞的本质、加密技术的重要性以及提升公众安全意识的必要性,以期为构建更加坚固的网络环境提供参考。
本文聚焦于网络安全领域的核心议题,包括网络安全漏洞的现状与应对、加密技术的发展与应用,以及安全意识的培养与实践。通过分析真实案例,揭示网络安全威胁的多样性与复杂性,强调综合防护策略的重要性。不同于传统摘要,本文将直接深入核心内容,以简洁明了的方式概述各章节要点,旨在迅速吸引读者兴趣,引导其进一步探索全文。

热门文章

最新文章