MXNet 核心接口

简介: 介绍一些 MXNet 常用的 API
from mxnet import cpu, gpu, nd

Context

Context 是模型的数据放置的环境:

a = nd.array([2, 4], ctx=cpu())
a1 = nd.array([3, 7], ctx=gpu(0))
a.context, a1.context
(cpu(0), gpu(0))

当然,也可以在 CPU 与 GPU 之间进行复制。

a2 = a.copyto(a1)   # 要求 a 与 a1 有相同的 shape
a1 is a2, a2.context
(True, gpu(0))
a1  # a1 被修改了

[2. 4.]
<NDArray 2 @gpu(0)>

为了进行深度复制,需要使用:

a3 = nd.array([3, 9])
a4 = a3.as_in_context(gpu(0))
a3 is a4, a3.context, a4.context
(False, cpu(0), gpu(0))

Symbol

  • Symbol 的基本函数 - 定义计算图
  • Symbol.infer_type: 推导当前 Symbol 所依赖的所有 Symbol 数据类型
  • Symbol.infer_shape: 推导当前 Symbol 所依赖的所有 Symbol 的形状
  • Symbol.list_argments: 列出当前 Symbol 所用到的基本参数名称
  • Symbo.list_outputs: 列出当前 Symbol 的输出名称
  • Symbol.list_auxiliary_states: 列出当前 Symbol 的辅助参量名称
from mxnet import sym, symbol
X = sym.Variable('X')
out = sym.FullyConnected(data=X, name='fc1', num_hidden=1000)
out = symbol.BatchNorm(out, name='batchnorm')
out = sym.Activation(data=out, act_type='relu')
out = sym.FullyConnected(data=out, name='fc2', num_hidden=10)
arg_types, out_types, aux_types = out.infer_type(X='float32')
arg_types, out_types, aux_types
([numpy.float32,
  numpy.float32,
  numpy.float32,
  numpy.float32,
  numpy.float32,
  numpy.float32,
  numpy.float32],
 [numpy.float32],
 [numpy.float32, numpy.float32])
arg_shapes, out_shapes, aux_shapes = out.infer_shape(X=(100,784))
arg_shapes, out_shapes, aux_shapes
([(100, 784), (1000, 784), (1000,), (1000,), (1000,), (10, 1000), (10,)],
 [(100, 10)],
 [(1000,), (1000,)])
out.list_arguments()
['X',
 'fc1_weight',
 'fc1_bias',
 'batchnorm_gamma',
 'batchnorm_beta',
 'fc2_weight',
 'fc2_bias']
out.list_outputs()
['fc2_output']
out.list_auxiliary_states()
['batchnorm_moving_mean', 'batchnorm_moving_var']

Symbol 如何获取中间节点

在定义好一个网络之后,如何去获取任何一个节点的输出值对于深度神经网络的迁移来说非常重要,因为在使用时通常并不是自己从头开始训练一个网络,而是在别人训练好的网络基础上根据自己的问题进行微调。

X = sym.Variable('X')
fc1 = sym.FullyConnected(data=X, name='fc1', num_hidden=1000)
act = sym.Activation(data=fc1, act_type='relu')
fc2 = sym.FullyConnected(data=act, name='fc2', num_hidden=10)
net = sym.SoftmaxOutput(fc2, name="softmax")
net.get_internals()
<Symbol group [X, fc1_weight, fc1_bias, fc1, activation0, fc2_weight, fc2_bias, fc2, softmax_label, softmax]>
subnet = net.get_internals()['fc2_output']
subnet, subnet.list_arguments()
(<Symbol fc2>, ['X', 'fc1_weight', 'fc1_bias', 'fc2_weight', 'fc2_bias'])

首先使用 get_internals() 获取整个 Symbol 的子图,输出是整个内部节点的输出节点列表。然后可以通过索引获取网络的子图。在上面的例子中,我们获取网络层的倒数第二层 fc2,可以看到 fc2 也是一个 Symbol 对象。

fc2.list_arguments()
['X', 'fc1_weight', 'fc1_bias', 'fc2_weight', 'fc2_bias']

同理,有:

subnet = net.get_internals()['fc1_output']
subnet.list_arguments()
['X', 'fc1_weight', 'fc1_bias']

图的拼接

假如,我们拿到了别人训练好的网络参数文件和网络结构文件,我们可以固定网络图的前部分,在尾部添加额外的 Symbol 节点,但是在网络的头部替换输入节点较困难。

X = sym.Variable('X')
fc1 =  sym.FullyConnected(data=X, name='fc1', num_hidden=1000)
act =  sym.Activation(data=fc1, act_type='relu',name='act')
fc2 =  sym.FullyConnected(data=act, name='fc2', num_hidden=10)
net = sym.SoftmaxOutput(fc2,name="softmax")
net.save('model.symbol.json')

如上面所示,我们先定义好了一个 包含 10 个输出节点网络,然后将 Smbol 网络保存到 json 文件。接下来我们重新加载这个 json 文件,并且在网络结尾处重新修改网络层的输出为 20。

net = sym.load('model.symbol.json')
net.get_internals().list_outputs()
['X',
 'fc1_weight',
 'fc1_bias',
 'fc1_output',
 'act_output',
 'fc2_weight',
 'fc2_bias',
 'fc2_output',
 'softmax_label',
 'softmax_output']
newnet = net.get_internals()['act_output']
newnet = sym.FullyConnected(data=fc1,num_hidden=20,name ='fc2_new')
newnet = sym.SoftmaxOutput(data=newnet,name='softmax_new')
newnet.get_internals().list_outputs()
['X',
 'fc1_weight',
 'fc1_bias',
 'fc1_output',
 'fc2_new_weight',
 'fc2_new_bias',
 'fc2_new_output',
 'softmax_new_label',
 'softmax_new_output']

Metric

Metric 是用来衡量模型效果的接口
当我们定义好一个 Metric,比如说 Accuracy , 然后将 Accuracy 交给 Module 托管的时候,在每个 Epoch 结束时,会自动调用 update 方法,计算 正确预测的样本数量和总共的样本数量,进而调用父类中的 get 方法,计算出最后的 Acc。

from mxnet import metric

predicts = [nd.array([[0.3, 0.7], [0, 1.], [0.4, 0.6]])]
labels   = [nd.array([0, 1, 1])]
acc = metric.Accuracy()
acc.update(preds = predicts, labels = labels)
acc.get()
('accuracy', 0.6666666666666666)

Metric Hack 分析

如果我们想要定义 自己的 Metric 类,需要完成下面几步:

  • 继承 metric.EvalMetric 接口,重新定义 update 方法,update 传入参数分析:

    • labels : list 类型,每个元素对应 DataBatch 中的 label
    • predicts : list 类型, 是 Loss Symbol 中 label 外的输入,因此 list 中的元素个数与网络上 loss 的个数有关
  1. 函数需要完成:
  • 更新属性 sum_metricnum_inst 的值,mxnet 会调用 get 函数中的 self.sum_metric / self.num_inst 来计算当前 metric 的输出值。
  • 与一个特殊的 Callback 类有关: Speedometer 会自动打印出所有 metric 的值。

转载:https://www.imooc.com/article/278837

相关实践学习
在云上部署ChatGLM2-6B大模型(GPU版)
ChatGLM2-6B是由智谱AI及清华KEG实验室于2023年6月发布的中英双语对话开源大模型。通过本实验,可以学习如何配置AIGC开发环境,如何部署ChatGLM2-6B大模型。
目录
相关文章
|
11月前
|
机器学习/深度学习 运维 安全
深度学习在安全事件检测中的应用:守护数字世界的利器
深度学习在安全事件检测中的应用:守护数字世界的利器
414 22
|
8月前
|
机器学习/深度学习 编解码 人工智能
计算机视觉五大技术——深度学习在图像处理中的应用
深度学习利用多层神经网络实现人工智能,计算机视觉是其重要应用之一。图像分类通过卷积神经网络(CNN)判断图片类别,如“猫”或“狗”。目标检测不仅识别物体,还确定其位置,R-CNN系列模型逐步优化检测速度与精度。语义分割对图像每个像素分类,FCN开创像素级分类范式,DeepLab等进一步提升细节表现。实例分割结合目标检测与语义分割,Mask R-CNN实现精准实例区分。关键点检测用于人体姿态估计、人脸特征识别等,OpenPose和HRNet等技术推动该领域发展。这些方法在效率与准确性上不断进步,广泛应用于实际场景。
1050 64
计算机视觉五大技术——深度学习在图像处理中的应用
|
12月前
|
机器学习/深度学习 传感器 数据采集
深度学习在故障检测中的应用:从理论到实践
深度学习在故障检测中的应用:从理论到实践
978 6
|
10月前
|
机器学习/深度学习 人工智能 运维
深度学习在流量监控中的革命性应用
深度学习在流量监控中的革命性应用
361 40
|
8月前
|
机器学习/深度学习 数据采集 存储
深度学习在DOM解析中的应用:自动识别页面关键内容区块
本文探讨了如何通过深度学习模型优化东方财富吧财经新闻爬虫的性能。针对网络请求、DOM解析与模型推理等瓶颈,采用代理复用、批量推理、多线程并发及模型量化等策略,将单页耗时从5秒优化至2秒,提升60%以上。代码示例涵盖代理配置、TFLite模型加载、批量预测及多线程抓取,确保高效稳定运行,为大规模数据采集提供参考。
189 0
|
10月前
|
机器学习/深度学习 运维 资源调度
深度学习在资源利用率优化中的应用:让服务器更聪明
深度学习在资源利用率优化中的应用:让服务器更聪明
433 6
|
12月前
|
机器学习/深度学习 人工智能 自然语言处理
深度学习的原理与应用:开启智能时代的大门
深度学习的原理与应用:开启智能时代的大门
699 16
|
12月前
|
机器学习/深度学习 网络架构 计算机视觉
深度学习在图像识别中的应用与挑战
【10月更文挑战第21天】 本文探讨了深度学习技术在图像识别领域的应用,并分析了当前面临的主要挑战。通过研究卷积神经网络(CNN)的结构和原理,本文展示了深度学习如何提高图像识别的准确性和效率。同时,本文也讨论了数据不平衡、过拟合、计算资源限制等问题,并提出了相应的解决策略。
352 19
|
10月前
|
机器学习/深度学习 自然语言处理 监控
深入探索:深度学习在时间序列预测中的强大应用与实现
时间序列分析是数据科学和机器学习中一个重要的研究领域,广泛应用于金融市场、天气预报、能源管理、交通预测、健康监控等多个领域。时间序列数据具有顺序相关性,通常展示出时间上较强的依赖性,因此简单的传统回归模型往往不能捕捉其中复杂的动态特征。深度学习通过其非线性建模能力和层次结构的特征提取能力,能够有效地捕捉复杂的时间相关性和非线性动态变化模式,从而在时间序列分析中展现出极大的潜力。

热门文章

最新文章