Nomad 系列 - 快速上手

本文涉及的产品
Redis 开源版,标准版 2GB
推荐场景:
搭建游戏排行榜
云数据库 Tair(兼容Redis),内存型 2GB
简介: Nomad 系列 - 快速上手

Nomad 重要术语

Nomad Terms

Nomad 安装设置相关术语

  • agent - 代理。Agent 是在 Server(服务器) 或 Client(客户端) 模式下运行的 Nomad 进程。
  • client - 客户端。Nomad 客户端负责运行分配给它的任务。它还向服务器注册自己,并监视要分配的任何工作。当运行代理时,客户端可以被称为节点 (Node)。
  • server - 服务器端。Nomad 服务器管理所有作业和客户端,监视任务,并控制哪些任务被放置在哪些客户端节点上。服务器之间相互复制数据以确保高可用性。
  • dev_agent - 开发(模式)代理是一种代理配置,它为运行 Nomad 的单节点集群提供了有用的默认值。它在服务器和客户端模式下运行,并且不会将其群集状态持久化到磁盘,这允许代理从可重复的干净状态启动,而不必在运行之间删除基于磁盘的状态。

Nomad 集群通常由三到五个服务器代理和许多客户端代理组成。

Nomad 使用的相关术语

在 Nomad 调度和运行工作负载的过程中,您将遇到以下术语。

  • task - 任务是 Nomad 中最小的工作单元(类似 K8s 中的 Pod)。任务由 task drivers 执行,drivers 包括 docker 和 exec 等,这使得 Nomad 可以灵活地支持任务类型。任务指定其所需的任务驱动程序、驱动程序的配置、约束 (constraints) 和所需的资源。
  • group - 组是在同一 Nomad 客户端上运行的一系列任务。(我个人认为类似于 K8s 中的 Deployment/Statefulset/Daemonset/Job)
  • job - 作业是 Nomad 的核心控制单元,它定义了应用程序及其配置。它可以包含一个或多个任务。(我个人认为 job 类似于 K8s 中的多个资源 yaml manifest 集合。包括:SVC/Ingress/ConfigMap/Deploy/PVC…)
  • job specification - 作业规范,也称为 jobspec,定义了 Nomad 作业的模式。它描述了作业的类型、作业运行所需的任务和资源、作业信息(如作业可以在哪些客户端上运行)等。
  • allocation - 分配是作业中的任务组与客户端节点之间的映射。当运行作业时,Nomad 将选择能够运行它的客户端,并在机器上为作业中定义的任务组中的任务分配资源。(我认为类似于 K8s 中已经在运行的 pod.)

应用程序在 jobspec 中定义为具有 jobspec 的任务组 (groups of tasks),并且一旦提交给 Nomad,就会创建一个作业 (job) 沿着该 jobspec 中定义的每个组的分配 (allocation)。

Nomad 上的应用工作流

典型的应用程序工作流程涉及几个步骤,并从 Nomad 外部开始。

在 Nomad 上运行的任何应用程序的先决条件是具有工作负载工件。Nomad 支持各种工件,包括 Docker 镜像 原始二进制文件 raw binariesJava 应用程序 和使用 QEMU 的虚拟机映像。

Nomad 不会创建这些应用程序工件,但可以使用 CircleCI,GitHub Actions 或本地构建等 CI 工具来创建工件,然后将其推送到存储库,Nomad 可以在调度作业时从中检索它们。

创建应用程序后,工作流将继续使用 Nomad。

Nomad Workflow

  • 创建 job spec - 作业规范包含应用程序所需的任务,包括工件驻留的位置、网络配置(如端口和服务定义)、所需实例数量等等。
  • 部署 job - 作业规范将提交给 Nomad,并根据作业配置在一个或多个客户端上为作业安排分配。
  • 更新和重新部署 job - 更新应用程序代码或作业规范,然后重新提交给 Nomad 进行调度。

快速入门

接下来我们快速上手 Nomad, 主要展示如何部署示例应用程序。

前提

  • Docker 已安装
  • Nomad 二进制(包括 CLI) 已安装
  • (可选)CNI 插件已安装
  • Nomad 集群已创建并运行(至少包括 1 个 Server 和 1 个 Client)

部署示例应用程序 Job

这里我们直接使用 git clone Nomad 官方提供的 Demo:

git clone https://github.com/hashicorp-education/learn-nomad-getting-started.git
cd learn-nomad-getting-started
git checkout -b nomad-getting-started v1.1
BASH

示例应用程序在 Docker 容器中运行,由一个数据库和一个从数据库读取数据的 Web 前端组成。您将使用 参数化批处理作业 parameterized batch job 设置数据库,然后使用 定期批处理作业 periodic batch job 启动其他将数据写入数据库的短期作业。

Job 类型

Service(服务) 作业用于长期运行的服务(类似于 K8s 中的 Deployment),这些服务一直运行到显式停止。

Batch 作业是指在成功退出之前一直运行的短期作业(类似于 K8s 中的 JobCronJob)。

  • 参数化 (parameterized) 块允许您配置批处理作业以接受必需或可选的输入。您可以使用 nomad job dispatch 命令触发作业。
  • 周期性 (periodic) 块允许您安排 Nomad 作业在设置的时间运行。这些也被称为 Nomad cron jobs(类似于 K8s 中的 CronJob)。

示例应用程序 Pytechco 概述

示例应用程序 pytechco 模拟在一家技术公司工作的员工。他们联机,完成任务,然后注销。

跳转到本地计算机上示例 repo 的 jobs 目录:

cd jobs
BASH

下面每个组成应用程序的 jobspec 文件都将 driver 属性设置为 docker ,并使用 image 属性指定存储在 GHCR 中 config 块中的镜像。而 Redis 作业使用了 Docker Hub 上托管的官方 Redis 镜像。

Redis 服务

jobs/pytechco-redis.nomad.hcl 内容如下:

task "redis-task" {
  driver = "docker"
  config {
    image = "redis:7.0.7-alpine"
  }
}
HCL

pytechco-redis.nomad.hcl - 此服务作业运行并将 Redis 数据库暴露为 Nomad 服务,以供其他应用程序组件连接。jobspec 将类型设置为 service ,配置 Nomad service 块(类似于 K8s 中的 Service) 以使用 Nomad 原生服务发现 (Nomad native service discovery),并创建名为 redis-svc 的服务。具体如下:

job "pytechco-redis" {
  type = "service"
  group "ptc-redis" {
    count = 1
    network {
      port "redis" {
        to = 6379
      }
    }
    service {
      name     = "redis-svc"
      port     = "redis"
      provider = "nomad"
    }
    task "redis-task" {
      driver = "docker"
      config {
        image = "redis:7.0.7-alpine"
        ports = ["redis"]
      }
    }
  }
}
HCL

以上代码说明如下:

  • type = "service": service type 的 job, 类似于 K8s 中的 Deployment
  • group "ptc-redis": group 块 ptc-redis
  • count = 1: 副本数为 1
  • to = 6379: 位于 network 块中,指示连接到 (to) 容器中的 6379 端口 (host 或 bridge 端口随机分派)
  • service {: service 块,类似于 K8s 中的 Service
  • provider = "nomad": Nomad 从 1.3 版本及以后,新增 Nomad native service. 🐾注意:如果不指定,默认使用 consul service.(前提是需要安装 consul)
  • task "redis-task" {: task 块,类似于 K8s 中的 Pod.
  • driver = "docker": Nomad 不同于 K8s. K8s 默认只支持一种运行时,即容器运行时;Nomad 默认就支持多种运行时 (nomad 的术语是driver), 典型如:docker, java, raw binarier, QEMU 等,这里指定使用 docker driver.
  • config {: 这里是特定于 docker 的 driver 的配置,包括:imageports
  • image = "redis:7.0.7-alpine": Docker Hub 的 redis:7.0.7-alpine" 镜像
  • ports = ["redis"]: 对外暴露的端口列表,这里是 redis, 即在 network 中定义的 to = 6379
Web 服务

pytechco-web.nomad.hcl - 此服务作业运行 Web 应用程序前端,显示存储在数据库中的值和活动员工。jobspec 将类型设置为 service ,并为应用程序使用 静态 端口 5000 。它还使用 nomadService 内置函数来获取 Redis 数据库服务的地址和端口信息。

job "pytechco-web" {
  type = "service"
  group "ptc-web" {
    count = 1
    network {
      port "web" {
        static = 5000
      }
    }
    service {
      name     = "ptc-web-svc"
      port     = "web"
      provider = "nomad"
    }
    task "ptc-web-task" {
      template {
        data        = <<EOH
{{ range nomadService "redis-svc" }}
REDIS_HOST={{ .Address }}
REDIS_PORT={{ .Port }}
FLASK_HOST=0.0.0.0
REFRESH_INTERVAL=500
{{ end }}
EOH
        destination = "local/env.txt"
        env         = true
      }
      driver = "docker"
      config {
        image = "ghcr.io/hashicorp-education/learn-nomad-getting-started/ptc-web:1.0"
        ports = ["web"]
      }
    }
  }
}
HCL

详细说明如下(大部分和 redis 类似,这里不重复介绍了):

  • static = 5000: 位于 network 块中,指定 静态 端口为 5000. 与to 不一样在于,to 指定内部端口,外部端口随机分派;static 内外部端口都相同,这里是 5000 端口。
  • template {: template 块。作用类似于 K8s 中的 ConfigMap.
  • data = <<EOH: 具体配置内容,这里是引用nomadService内置函数来获取 Redis 数据库服务的地址和端口信息。配置内容为EOH包裹的内容。
  • REDIS_HOST={{ .Address }}: 即运行后的分派 (alloc) 的外部(通常是 host) 地址
  • REDIS_PORT={{ .Port }}: 即运行后分派的 外部 端口(不是 6379), 是一个 20000-30000 之间的随机端口。
  • destination = "local/env.txt: 配置文件在分派后的位置。
  • env = true: 同时也将REDIS_HOST REDIS_PORT 等设置为分配 (alloc) 容器中的环境变量。
Setup Parameterized Batch

pytechco-setup.nomad.hcl - 此参数化批处理作业 (parameterized batch job) 使用默认值设置数据库。您可以多次调度它来重置数据库。jobspec 将类型设置为 batch ,并有一个带有 meta_required 属性的 parameterized 块,在分派时需要 budget 的值。

job "pytechco-setup" {
  type = "batch"
  parameterized {
    meta_required = ["budget"]
  }
  group "ptc-setup" {
    count = 1
    task "ptc-setup-task" {
      template {
        data        = <<EOH
{{ range nomadService "redis-svc" }}
REDIS_HOST={{ .Address }}
REDIS_PORT={{ .Port }}
{{ end }}
PTC_BUDGET={{ env "NOMAD_META_budget" }}
EOH
        destination = "local/env.txt"
        env         = true
      }
      driver = "docker"
      config {
        image = "ghcr.io/hashicorp-education/learn-nomad-getting-started/ptc-setup:1.0"
      }
    }
  }
}
HCL

具体说明如下:

  • type = "batch" Job 类型为 batch, 类似于 K8s 中的 JobCronJob
  • parameterized {: 该 Job 有一个带有 meta_required 属性的 parameterized 块,在分派时需要 budget 的值
  • PTC_BUDGET={{ env "NOMAD_META_budget }} 获取环境变量 NOMAD_META_budget 的值并赋给 PTC_BUDGET
Employee Periodic Batch

pytechco-employee.nomad.hcl - 此定期批处理作业使员工联机。它随机化了员工的工作类型和其他变量,如他们工作的时间和他们完成任务的速度。jobspec 将类型设置为 batch ,并有一个 periodic 块将 cron 属性设置为允许它每 3 秒启动一个新作业的值。

job "pytechco-employee" {
  type = "batch"
  periodic {
    cron             = "0/3 * * * * * *"
    prohibit_overlap = false
  }
  group "ptc-employee" {
    count = 1
    task "ptc-employee-task" {
      restart {
        attempts = 2
        delay    = "15s"
        interval = "10s"
        mode     = "fail"
      }
      template {
        data        = <<EOH
{{ range nomadService "redis-svc" }}
REDIS_HOST={{ .Address }}
REDIS_PORT={{ .Port }}
PTC_EMPLOYEE_ID={{ env "NOMAD_SHORT_ALLOC_ID"}}
{{ end }}
EOH
        destination = "local/env.txt"
        env         = true
      }
      driver = "docker"
      config {
        image = "ghcr.io/hashicorp-education/learn-nomad-getting-started/ptc-employee:1.0"
        // args = [
        //     "--employee-type", "sales_engineer"
        // ]
      }
    }
  }
}
HCL

具体说明如下:

  • periodic {: type = "batch" 再加上 periodic, 就类似于 K8s 中的 CronJob
  • restart {: Batch 执行过程中的异常重启机制配置。
  • PTC_EMPLOYEE_ID={{ env "NOMAD_SHORT_ALLOC_ID"}}: 将环境变量 NOMAD_SHORT_ALLOC_ID(该环境变量由 Nomad 生成,类似于 K8s 的 pod name) 赋值给 PTC_EMPLOYEE_ID
  • // args = [: // HCL 中的注释,此行不起作用。argsdocker driver config 中的 args 配置。

从 Nomad 1.5.0 开始, datacenter 属性默认为集群中所有可用的数据中心( "*" )。因此,本教程的作业规范将省略该属性,因为默认值已足够。如果您运行的是较早版本的 Nomad CLI 和集群二进制文件,则需要包含并设置该属性。

部署应用程序

具体命令如下:

提交数据库 Job:

$ nomad job run pytechco-redis.nomad.hcl
==> 2023-03-10T12:16:09-05:00: Monitoring evaluation "d44af37b"
    2023-03-10T12:16:09-05:00: Evaluation triggered by job "pytechco-redis"
    2023-03-10T12:16:10-05:00: Evaluation within deployment: "0ea05651"
    2023-03-10T12:16:10-05:00: Allocation "be0bda79" created: node "2c9f4b7e", group "ptc-redis"
    2023-03-10T12:16:10-05:00: Evaluation status changed: "pending" -> "complete"
==> 2023-03-10T12:16:10-05:00: Evaluation "d44af37b" finished with status "complete"
==> 2023-03-10T12:16:10-05:00: Monitoring deployment "0ea05651"
  ✓ Deployment "0ea05651" successful
    
    2023-03-10T12:16:24-05:00
    ID          = 0ea05651
    Job ID      = pytechco-redis
    Job Version = 0
    Status      = successful
    Description = Deployment completed successfully
    
    Deployed
    Task Group  Desired  Placed  Healthy  Unhealthy  Progress Deadline
    ptc-redis   1        1       1        0          2023-03-10T17:26:23Z
SHELL

提交 web Job:

nomad job run pytechco-web.nomad.hcl
BASH

获取 webapp 的 IP 地址。以下命令获取 Web 作业的分配 ID,并使用该 ID 获取分配的状态。然后,它在分配状态输出中搜索 IP 地址,并将 IP 地址格式化为与 webapp 端口的链接。在浏览器中打开输出中的 URL 以查看 webapp 前端。

nomad node status -verbose \
    $(nomad job allocs pytechco-web | grep -i running | awk '{print $2}') | \
    grep -i ip-address | awk -F "=" '{print $2}' | xargs | \
    awk '{print "http://"$1":5000"}'
BASH

提交 Setup Job:

nomad job run pytechco-setup.nomad.hcl
BASH

通过提供 budget 值分派该 setup job:

$ nomad job dispatch -meta budget="200" pytechco-setup
Dispatched Job ID = pytechco-setup/dispatch-1678468734-396cfa83
Evaluation ID     = 53a77034
==> 2023-03-10T12:18:54-05:00: Monitoring evaluation "53a77034"
    2023-03-10T12:18:54-05:00: Evaluation triggered by job "pytechco-setup/dispatch-1678468734-396cfa83"
    2023-03-10T12:18:54-05:00: Allocation "d6c60ffd" created: node "2c9f4b7e", group "ptc-setup"
    2023-03-10T12:18:54-05:00: Evaluation status changed: "pending" -> "complete"
==> 2023-03-10T12:18:54-05:00: Evaluation "53a77034" finished with status "complete"
SHELL

提交 Employee Job:

nomad job run pytechco-employee.nomad.hcl
BASH

跳转到 Nomad UI,单击 “Jobs” 页面,然后单击 pytechco-employee job。由于这是一个 cron batch job,您可以看到它每 3 秒创建一个新作业。

Nomad UI - pytechco-employee cron batch job

跳转回 webapp URL。效果如下:

PyTechCo Demo App

更新应用程序

首先,停止 employee job:

nomad job stop -purge pytechco-employee
BASH

通过使用新 budget 500 再次分派 setup job 来重置数据库:

$ nomad job dispatch -meta budget="500" pytechco-setup
Dispatched Job ID = pytechco-setup/dispatch-1678469008-6ffe1c0c
Evaluation ID     = e8e420f0
==> 2023-03-10T12:23:28-05:00: Monitoring evaluation "e8e420f0"
    2023-03-10T12:23:28-05:00: Evaluation triggered by job "pytechco-setup/dispatch-1678469008-6ffe1c0c"
    2023-03-10T12:23:28-05:00: Allocation "74acf63e" created: node "2c9f4b7e", group "ptc-setup"
    2023-03-10T12:23:28-05:00: Evaluation status changed: "pending" -> "complete"
==> 2023-03-10T12:23:28-05:00: Evaluation "e8e420f0" finished with status "complete"
SHELL

打开 pytechco-employee.nomad.hcl 文件并取消注释任务配置的 args 块,使作业仅创建类型为 sales_engineer 的员工。然后将 cron 更新为 0/1 * * * * * * ,使作业每秒运行一次。保存文件。

...
        cron = "0/1 * * * * * *"
...
        args = [
            "--employee-type", "sales_engineer"
        ]
...
HCL

再次提交 employee job 并跳转到 Web 应用程序。请注意,所有在线员工现在都只是销售工程师 (sales_enginee)(之前是有多个不同的员工类型),而且他们中的更多人在任何给定时间都在线。

$ nomad job run pytechco-employee.nomad.hcl
Job registration successful
Approximate next launch time: 2023-03-10T17:24:18Z (1s from now)
SHELL

清理应用程序

停止并清理所有 Jobs:

nomad job stop -purge pytechco-employee
nomad job stop -purge pytechco-web
nomad job stop -purge pytechco-redis
nomad job stop -purge pytechco-setup
BASH

总结

本文中,我们一起了解了 Nomad 的术语,并根据官方 Demo, 部署和更新了 Nomad Job。同时穿插了解了 Nomad 和 K8s 的一些类比和对比。

后面就正式进入具体实战环节,包括:Nomad 与 Traefik 和 Tailscale 的集成等独家内容。敬请期待。💪💪💪

📚️参考文档

相关实践学习
通过Ingress进行灰度发布
本场景您将运行一个简单的应用,部署一个新的应用用于新的发布,并通过Ingress能力实现灰度发布。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
相关文章
|
NoSQL 调度 数据中心
|
4月前
|
Prometheus 监控 Cloud Native
Prometheus 入门指南:快速上手
【8月更文第29天】Prometheus 是一个开源的监控系统和时间序列数据库,它特别适合于监控基于微服务架构的应用程序。Prometheus 采用 pull 模式主动从目标系统抓取数据,并且提供丰富的查询语言 PromQL 以便进行数据分析。本文将介绍 Prometheus 的基本概念、架构,并指导您如何快速搭建和配置 Prometheus 服务器。
133 1
|
7月前
|
Kubernetes NoSQL Java
Kubernetes(K8s 1.27.x) 快速上手+实践,无废话纯享版
Kubernetes(K8s 1.27.x) 快速上手+实践,无废话纯享版
332 0
|
7月前
|
存储 安全 Linux
|
7月前
|
安全 Linux 数据安全/隐私保护
Nomad 系列 -Nomad+Traefik+Tailscale 集成实现零信任安全
Nomad 系列 -Nomad+Traefik+Tailscale 集成实现零信任安全
|
JavaScript 前端开发 Java
Keycloak快速上手指南(二)
Keycloak快速上手指南
422 0
|
前端开发 JavaScript API
Keycloak快速上手指南(一)
Keycloak快速上手指南
1378 0
|
运维 Kubernetes Cloud Native
Kubernetes(K8s)常用命令大全:熟练编排更完美
Kubernetes(K8s)常用命令大全:熟练编排更完美
1517 0
|
存储 Kubernetes 负载均衡
一文搞定Kubernetes,零基础到上手
一文搞定Kubernetes,零基础到上手
一文搞定Kubernetes,零基础到上手
|
存储 Kubernetes 关系型数据库
事半功倍:Helm的了解与使用
事半功倍:Helm的了解与使用
236 0