阿里云容器服务GPU监控2.0基础篇1:基本功能使用

本文涉及的产品
容器镜像服务 ACR,镜像仓库100个 不限时长
简介: 本系列相关文章:阿里云容器服务GPU监控2.0基础篇1:基本功能使用阿里云容器服务GPU监控2.0基础篇2:监控NVLINK带宽阿里云容器服务GPU监控2.0基础篇3:监控NVIDIA XID错误阿里云容器服务GPU监控2.0进阶篇1:剖析(Profiling)GPU使用情况必备知识阿里云容器服务GPU监控2.0进阶篇2:学会剖析(Profiling)GPU使用情况容器服务GPU监控2.0基于NV

本系列相关文章:

容器服务GPU监控2.0基于NVIDIA DCGM实现对集群GPU节点的全方位监控,您可以通过它监控:

  • 集群维度的GPU资源使用情况,包括利用率、显存使用、XID错误检测等
  • 节点池维度的GPU资源使用情况,包括利用率、显存使用、XID错误检测等
  • 节点维度的GPU资源使用情况,包括利用率、显存使用、温度与功率、Profiling等
  • Pod维度的GPU资源使用情况,包括利用率,显存使用等

本篇文档将向您介绍如何使用容器服务GPU监控2.0监控ACK集群中的GPU资源。

前提条件

在使用容器服务GPU监控2.0之前,您需要:

  • GPU监控2.0本身支持专业版集群、标准版集群、Pro版集群、边缘集群,但是本文档中演示了GPU监控2.0支持共享GPU调度相关指标,而共享GPU调度仅支持Pro版集群,所以本文档演示所使用的集群为Pro版集群,另外集群版本不限
  • 确保容器服务GPU监控2.0相关组件已经安装完成,如果没有安装,请参考文档: 开启集群GPU监控

注意事项

在使用容器服务GPU监控2.0之前,有如下的几点注意事项需要说明:

  • 当前GPU监控指标的采集间隔时间为15s,且在Grafana监控大盘展示的数据相比指标产生的时候有一定的延迟,所以可能出现这种情况:某个时间点,从监控大盘显示某个节点明明没有可分配的显存,但是某个pod还是能够调度到该节点上。可能的原因是指标产生的时间点到下一次产生的15s间隔时间内,有pod完成了任务,释放了GPU资源,调度器感知到以后,将处于Pending的pod调度到这个节点上。
  • 监控大盘仅能够监控通过 Pod resources.limits方式申请的GPU资源,如果节点存在如下几种方式使用GPU资源的情况,可能会导致监控大盘的数据不准确:
  • 直接在节点上运行GPU应用
  • 通过“docker run”命令直接启动容器运行GPU应用
  • 在Pod的env中直接添加环境变量“NVIDIA_VISIBLE_DEVICES=all” 或“NVIDIA_VISIBLE_DEVICES=”等通过环境变量NVIDIA_VISIBLE_DEVICES直接为pod申请GPU资源,并且运行了GPU程序
  • Pod securityContext中设置 "privileged: true",并且运行了GPU程序
  • Pod yaml中未设置环境变量NVIDIA_VISIBLE_DEVICES,但Pod所使用的镜像在制作时,默认设置环境变量NVIDIA_VISIBLE_DEVICES=all,并且运行了GPU程序
  • 有两个概念需要明确,GPU卡的 已分配的显存已使用的显存,可以通过一个例子了解一下:假设某一张卡总共有16GiB显存,为某个pod分配了5GiB显存,但是这个pod的启动命令为“sleep 1000”,也就是说pod处于Running后并没有使用GPU,此时可以说,这张卡已分配的显存为5GiB,已使用的显存为0GiB

创建节点池

不管Pod是按整张卡方式申请GPU资源,还是按显存维度申请GPU资源(包括申请GPU算力资源),GPU监控大盘都能展示其相关指标。为了演示GPU监控2.0支持这些pod,将在一个集群中创建3个节点池来运行这些类的pod,每个节点池存在一个节点(方便展示效果),三个节点池信息如下:

节点池名称

支持运行pod类型

申请GPU资源示例

exclusive

按整张卡的维度申请GPU资源

nvidia.com/gpu:1 申请1张GPU卡

share-mem

按GPU显存维度申请GPU资源

aliyun.com/gpu-mem: 5 申请5GiB显存

share-mem-core

按GPU显存维度申请GPU资源且同时支持申请算力申请

aliyun.com/gpu-mem: 5 申请5GiB显存

aliyun.com/gpu-core.percentage: 30 申请一张卡30%算力

对于创建3个节点池说明如下:

  • exclusive节点池:创建一个普通节点池,节点机型选择GPU机型即可
  • share-mem:集群需要安装共享GPU组件,节点机型选择GPU机型,并且给节点池打上标签ack.node.gpu.schedule=cgpu,具体请参考文档 安装并使用共享GPU组件
  • share-mem-core:集群需要安装共享GPU组件(整个集群只安装一次),节点机型选择GPU机型,并且给节点池打上标签ack.node.gpu.schedule=core_mem,具体请参考文档 共享GPU调度支持算力分配

三个节点池创建完成后的效果如下:

部署GPU应用

节点池创建完成后,为了验证节点GPU相关指标是否正常,需要在节点上运行一些GPU应用,本次示例选择运行项目tensorflow benchmark(需要说明:运行tensorflow benchmark项目至少需要9GiB显存)。在每个节点池创建一个任务,任务信息如下:

任务名称

运行在哪个节点池内

申请的GPU资源

tensorflow-benchmark-exclusive

exclusive

nvidia.com/gpu: 1,申请1张GPU卡

tensorflow-benchmark-share-mem

share-mem

aliyun.com/gpu-mem: 10,申请10GiB显存

tensorflow-benchmark-share-mem-core

share-mem-core

aliyun.com/gpu-mem: 10 ,申请10GiB显存aliyun.com/gpu-core.percentage: 30,申请1张卡的30%算力

使用kubectl apply -f ,创建每一个任务。

tensorflow-benchmark-exclusive的yaml如下:

apiVersion: batch/v1
kind: Job
metadata:
  name: tensorflow-benchmark-exclusive
spec:
  parallelism: 1
  template:
    metadata:
      labels:
        app: tensorflow-benchmark-exclusive
    spec:
      containers:
      - name: tensorflow-benchmark
        image: registry.cn-beijing.aliyuncs.com/ai-samples/gpushare-sample:benchmark-tensorflow-2.2.3
        command:
        - bash
        - run.sh
        - --num_batches=5000000
        - --batch_size=8
        resources:
          limits:
            nvidia.com/gpu: 1 # 申请1张GPU卡
        workingDir: /root
      restartPolicy: Never

tensorflow-benchmark-share-mem的yaml如下:

apiVersion: batch/v1
kind: Job
metadata:
  name: tensorflow-benchmark-share-mem
spec:
  parallelism: 1
  template:
    metadata:
      labels:
        app: tensorflow-benchmark-share-mem
    spec:
      containers:
      - name: tensorflow-benchmark
        image: registry.cn-beijing.aliyuncs.com/ai-samples/gpushare-sample:benchmark-tensorflow-2.2.3
        command:
        - bash
        - run.sh
        - --num_batches=5000000
        - --batch_size=8
        resources:
          limits:
            aliyun.com/gpu-mem: 10 # 申请10GiB显存
        workingDir: /root
      restartPolicy: Never

tensorflow-benchmark-share-mem-core的yaml如下:

apiVersion: batch/v1
kind: Job
metadata:
  name: tensorflow-benchmark-share-mem-core
spec:
  parallelism: 1
  template:
    metadata:
      labels:
        app: tensorflow-benchmark-share-mem-core
    spec:
      containers:
      - name: tensorflow-benchmark
        image: registry.cn-beijing.aliyuncs.com/ai-samples/gpushare-sample:benchmark-tensorflow-2.2.3
        command:
        - bash
        - run.sh
        - --num_batches=5000000
        - --batch_size=8
        resources:
          limits:
            aliyun.com/gpu-mem: 10 # 申请10GiB显存
            aliyun.com/gpu-core.percentage: 30  # 申请1张卡的30%算力
        workingDir: /root
      restartPolicy: Never

任务提交后等待任务的pod处于Running,可以使用kubectl get po查看:

# kubectl get po
NAME                                        READY   STATUS    RESTARTS   AGE
tensorflow-benchmark-exclusive-7dff2        1/1     Running   0          3m13s
tensorflow-benchmark-share-mem-core-k24gz   1/1     Running   0          4m22s
tensorflow-benchmark-share-mem-shmpj        1/1     Running   0          3m46s

使用GPU监控2.0

集群维度GPU监控大盘

打开集群维度GPU监控大盘,具体步骤如下:

  1. 集群列表 页面中,单击目标集群名称或者目标集群右侧 操作 列下的 详情
  2. 在集群管理页左侧导航栏中,选择 运维管理 > Prometheus监控
  3. Prometheus监控 大盘列表页面,单击 GPU监控 页签,您分别可以看到 集群维度的GPU监控大盘 节点维度的GPU监控大盘 点击“集群维度GPU监控大盘”

从如下的监控大盘中可以看到:

  • 集群总共有3个GPU节点
  • 集群总共有3张GPU卡,已分配1.6张卡(如果是按整张卡维度申请GPU,一张卡分配的比例为1;如果是共享GPU调度,分配比例为某张卡已分配的显存与这张卡总的显存的比例)
  • 已分配显存的百分比
  • 已使用显存的百分比
  • 集群中所有卡的平均利用率
  • 集群中所有卡的内存控制器利用率

从大盘中的“GPU Pod Details”这个面板可以显示集群中申请GPU资源的Pod,包括:

  • pod名称、所属的namespace,运行在哪个节点上
  • 已使用的显存
  • 为该pod分配的显存,需要注意的是,如果是共享GPU调度,因为节点在上报api server每张卡总的显存时,仅支持上报整数,所以上报的显存数为节点的真实显存向下取整,举个例子:节点上某张卡的总显存为31.7GiB,节点上报给api server时,只能上报31GiB,如果pod申请了10GiB,那么为该pod分配的真实显存为31.7 * (10 / 31) = 10.2 GiB
  • 为该pod分配的算力,如果pod没有申请算力,那么该值显示为“-”,可以看到tensorflow-benchmark-share-mem-core-k24gz这个pod申请了30%的算力
  • SM利用率、内存控制器利用率、编解码器的利用率

从大盘中的“GPU Node Details”这个面板可以显示集群中GPU节点的信息,包括:

  • 节点名称
  • GPU卡索引号
  • GPU利用率
  • 内存控制器利用率
  • 已使用的显存
  • 已分配的显存占总显存的比例
  • 总显存大小
  • 功率、温度、内存控制器温度

上面显示的是整个集群的GPU相关信息,也可以展示节点池维度的GPU信息,只需在左上角的“NodePool”选择目标节点池就行,从下面的图中可以看到,指定节点池后,监控大盘上的数据有变化,例如:总GPU节点变成了“1”,总GPU数变成了1,已分配数变成了1等。

节点为GPU监控大盘

也可以显示某个节点的GPU资源信息,有两种方式:

  • 点击 Prometheus监控 大盘列表页面的 集群维度GPU监控大盘
  • 集群维度监控大盘 的右上角,有一个“GPU Node Details”按钮,可以跳转过去

进入节点维度监控大盘以后,可以在右上角选择显示哪个节点,下面这张图显示的是cn-beijing.192.168.10.167这个节点,从中可以看到:

  • 节点启用的GPU模式为Share,即共享GPU。如果是独占GPU,会显示成Exclusive。如果当前节点没有GPU Pod在运行,那么会显示成None。
  • 节点的驱动版本
  • 节点已分配GPU卡数与总的卡数
  • GPU平均利用率
  • 显存已分配的比例
  • 显存已使用的比例
  • 节点已分配的算力比例,需要说明的是,只有在节点开启算力分配的情况下,这个面板才有数据显示,也就是说,本次示例中的三个节点,只有一个节点有数据显示(即cn-beijing.192.168.10.167,0号GPU卡已分配30%算力)。

在Utilization这个面板组可以看到与利用率有关的几个指标。

在Memory & BAR1这个面板组可以看到与显存和BAR1相关的指标。

在GPU Process这个面板组可以显示节点上运行的GPU线程信息。

除此以外,还有一些高级指标也做了展示,包括:

  • 剖析(Profiling)
  • 温度 & 能量(Temperature & Energy)
  • 时钟频率(Clock)
  • GPU上停用的内存页(Retired Pages)
  • 违规行为(Violation)

总结

本篇文档介绍了GPU监控2.0的一些基本使用方法,后续将会提供一些GPU监控2.0的最佳实践。

相关实践学习
Docker镜像管理快速入门
本教程将介绍如何使用Docker构建镜像,并通过阿里云镜像服务分发到ECS服务器,运行该镜像。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
目录
相关文章
|
2月前
|
存储 Kubernetes Docker
容器服务ACK常见问题之阿里云控制台进不去了如何解决
容器服务ACK(阿里云容器服务 Kubernetes 版)是阿里云提供的一种托管式Kubernetes服务,帮助用户轻松使用Kubernetes进行应用部署、管理和扩展。本汇总收集了容器服务ACK使用中的常见问题及答案,包括集群管理、应用部署、服务访问、网络配置、存储使用、安全保障等方面,旨在帮助用户快速解决使用过程中遇到的难题,提升容器管理和运维效率。
|
3月前
|
人工智能 运维 Kubernetes
阿里云容器服务ACK AI助手正式上线带来的便利性
作为开发者想必大家都知道,云原生容器技术的优势,尤其是近两年的随着容器技术的迅猛发展,Kubernetes(K8s)已成为广泛应用于容器编排和管理的领先解决方案,但是K8s的运维复杂度一直是挑战之一。为了应对这一问题,就在最近,阿里云容器服务团队正式发布了ACK AI助手,这是一款旨在通过大模型增强智能诊断的产品,旨在帮助企业和开发者降低Kubernetes(K8s)的运维复杂度。那么本文就来详细讲讲关于这款产品,让我们结合实际案例分享一下K8s的运维经验,探讨ACK AI助手能否有效降低K8s的运维复杂度,并展望ACK AI助手正式版上线后的新功能。
279 2
阿里云容器服务ACK AI助手正式上线带来的便利性
|
1天前
|
负载均衡 固态存储 Linux
阿里云轻量应用服务器、云服务器、gpu云服务器最新收费标准参考
轻量应用服务器、云服务器、gpu云服务器是阿里云服务器产品中,比较热门的云服务器产品类型,不同类型的云服务器产品收费模式与收费标准是不一样的,本文为大家展示这几个云服务器产品的最新收费标准情况,以供参考。
阿里云轻量应用服务器、云服务器、gpu云服务器最新收费标准参考
|
13天前
|
运维 Serverless API
Serverless 应用引擎产品使用之在阿里云函数计算中,容器运行过程中的最大内存使用量获取如何解决
阿里云Serverless 应用引擎(SAE)提供了完整的微服务应用生命周期管理能力,包括应用部署、服务治理、开发运维、资源管理等功能,并通过扩展功能支持多环境管理、API Gateway、事件驱动等高级应用场景,帮助企业快速构建、部署、运维和扩展微服务架构,实现Serverless化的应用部署与运维模式。以下是对SAE产品使用合集的概述,包括应用管理、服务治理、开发运维、资源管理等方面。
34 2
|
13天前
|
运维 IDE Serverless
Serverless 应用引擎产品使用之阿里函数计算中,阿里云容器镜像服务(Container Registry)中创建自定义镜像,然后将其部署到FC上如何解决
阿里云Serverless 应用引擎(SAE)提供了完整的微服务应用生命周期管理能力,包括应用部署、服务治理、开发运维、资源管理等功能,并通过扩展功能支持多环境管理、API Gateway、事件驱动等高级应用场景,帮助企业快速构建、部署、运维和扩展微服务架构,实现Serverless化的应用部署与运维模式。以下是对SAE产品使用合集的概述,包括应用管理、服务治理、开发运维、资源管理等方面。
28 0
|
13天前
|
关系型数据库 Serverless 异构计算
Serverless 应用引擎产品使用之在阿里云函数计算中使用包含GPU的实例并且镜像超过10GB了如何解决
阿里云Serverless 应用引擎(SAE)提供了完整的微服务应用生命周期管理能力,包括应用部署、服务治理、开发运维、资源管理等功能,并通过扩展功能支持多环境管理、API Gateway、事件驱动等高级应用场景,帮助企业快速构建、部署、运维和扩展微服务架构,实现Serverless化的应用部署与运维模式。以下是对SAE产品使用合集的概述,包括应用管理、服务治理、开发运维、资源管理等方面。
33 0
|
16天前
|
人工智能 边缘计算 Kubernetes
阿里云边缘容器云帮助AI推理应用快速落地
2024全球分布式云大会·北京站,阿里云徐若晨演讲内容分享
27 0
|
17天前
|
弹性计算 运维 Kubernetes
阿里云轻量应用服务器与轻量容器服务简介与区别及收费标准参考
轻量应用服务器是深受个人和普通企业用户亲耐的一款轻量级云服务器产品,提供精品应用一键部署,支持一站式的域名、网站、安全、运维、应用管理等服务,极大优化搭建简单应用的体验,降低了入门级用户使用云计算产品的门槛。轻量容器服务是专为学生、个人开发者等用户打造的轻量级容器服务,帮助您在云上快速了解容器和Kubernetes(简称K8s)相关的基础概念和轻松进行入门实践。本文为大家介绍一下阿里云轻量应用服务器与轻量容器服务的区别以及收费标准,以供参考。
阿里云轻量应用服务器与轻量容器服务简介与区别及收费标准参考
|
26天前
|
边缘计算 运维 监控
阿里云超大规模边缘容器云助力应用全球化部署
第十四届亚太内容分发大会,阿里云邓茜演讲内容分享
27 0
|
1月前
|
机器学习/深度学习 弹性计算 人工智能
什么是阿里云GPU云服务器?GPU云服务器产品优势及应用场景介绍
GPU云服务器是阿里云的云服务器ECS产品之一,是提供 GPU 算力的弹性计算服务,具有超强的计算能力,服务于深度学习、科学计算、图形可视化、视频处理多种应用场景。本文为大家介绍阿里云GPU云服务器产品优势、应用场景以及阿里云GPU云服务器实例规格有哪些。
什么是阿里云GPU云服务器?GPU云服务器产品优势及应用场景介绍

相关产品

  • 容器计算服务