ACK注册集群CLI使用

本文涉及的产品
容器镜像服务 ACR,镜像仓库100个 不限时长
简介: ACK注册集群CLI使用

一、前置条件

  • 已创建注册集群并接入自建Kubernetes集群,集群状态为运行中


二、安装onectl

支持MacOS和Linux系统:

curl https://ack-one.oss-cn-hangzhou.aliyuncs.com/onectl/get-onectl.sh |bash

验证onectl:

onectl version

预期输出:

onectl: v1.0.0+435cb69
  BuildDate: 2023-02-16T07:55:15Z
  GitCommit: 435cb69c9efdf369f036e3f5864c07ae871a793d
  GitTreeState: clean
  GoVersion: go1.18.9
  Compiler: gc
  Platform: linux/amd64

三、配置onectl

使用说明

以onectl安装logtail-ds addon为例,本步骤中使用的AK将被用于执行以下操作:

  • 检查RAM账号下是否已授权logtail-ds addon所需的RAM权限("ram:GetPolicy"),自动以权限策略名称为externalK8sPolicy-logtail-ds,若不存在,则创建该策略(ram:CreatePolicy),并将该策略添加至RAM账号下(ram:AttachPolicyToUser);
  • 使用该AK,在ACK注册集群中创建secret,logtail-ds addon将挂载该secret并使用AK访问日志服务相关云资源。


强烈建议您使用RAM子账号并创建AK用于ACK注册集群。您需要向账号管理员申请子账号并为子账号完成以下操作:

  • 为子账号生成AK
  • 为子账号授予以下RAM权限


以下为账号管理员的操作:

(1)onectl方式:

onectl  subuser create --name <subaccount_name> --main-access-key <main_access_key> --main-access-secret <main_access_secret>

预期输出:

Successfully create subuser account:
name: xxxx
new accessKeyId: xxxx
new accessKeySecret: xxxx

若您只需为指定RAM账户授权RAM Policy的话,可以执行:

onectl  subuser grant --name <subaccount_name> --new-ak=false --main-access-key <main_access_key> --main-access-secret <main_access_secret>

预期输出:

Successfully grant init ram policy subuser account
granted rampolicy name: externalK8sPolicy-init

(2)控制台方式:

  1. 创建RAM用户。具体操作,请参见创建RAM用户
  2. 为RAM用户创建AccessKey。具体操作,请参见获取AccessKey
  3. 创建自定义权限策略externalK8sPolicy-tmp,具体权限策略内容如下。具体操作,请参见创建自定义权限策略
{
  "Statement": [
    {
      "Action": [
        "cs:InstallClusterAddons"
      ],
      "Effect": "Allow",
      "Resource": [
        "acs:cs:*:*:cluster/*"
      ]
    },
    {
      "Action": [
        "ram:GetPolicy",
        "ram:CreatePolicy",
        "ram:AttachPolicyToUser"
      ],
      "Effect": "Allow",
      "Resource": [
        "*"
      ]
    }
  ],
  "Version": "1"
}
  1. 为RAM用户添加权限。具体操作,请参见为RAM用户授权


完成配置

使用主账户管理员为您生成的RAM账户以及AK信息,完成以下配置:

onectl configure

预期输出:

Configuring profile 'default' ...
Access Key Id [xxxxxxxx]: 
Access Key Secret [xxxxxxxx]: 
Default SubAccount Username [xxxx]: 
Default Cluster Id (ClusterId of ACK Registry Cluster) [xxxxxxxxxxxxxxxx]: 
Default Kubeconfig Path (default is ~/.kube/config) []: 
Saving profile[default] ...
Done.
  • AK信息:onectl使用AK的2个用途:(1)使用该AK调用OpenAPI查询和创建自定义RAM策略、授予子账户自定义策略以及安装ACK Addon组件 (2)为ACK Addon组件配置AK,ACK Addon组件将使用该AK访问云上资源;   请确保该子账号AK使用最小RAM权限并妥善保管好该AK
  • SubAccount Username:子账号的用户名,如下图示例中子账号的用户名为 `shuwei`

image.png

  • Cluster ID: 即注册集群的clusterid
  • Kubeconfig Path: 自建集群的kubeconfig路径,默认为~/.kube/config



四、使用onectl一键安装addon插件

示例: 安装logtail-ds插件:

onectl addon install logtail-ds

预期输出:

Addon logtail-ds installed


五、使用onectl前置检查节点池创建

创建节点池的前置检查

onectl nodepool check

预期输出:

Have you add nodeaffinity to avoid your network plugin running one ecs node? [y/n]
y
Is connected with intranet............... true
Is customized node init script added..... true
Is nodeaffinity added.................... true
Is terway addon installed................ true
nodepool check passed. [help doc: ]

创建自动弹性伸缩节点池的前置检查

onectl nodepool check --enable-autoscaler=true

预期输出:

Have you add nodeaffinity to avoid your network plugin running one ecs node? [y/n]
y
Is connected with intranet............... true
Is customized node init script added..... true
Is nodeaffinity added.................... true
Is terway addon installed................ true
Is autoscaler addon installed............ true
nodepool check passed. [help doc: ]

当且仅当所有前置检查都通过时,您才可以进一步创建节点池。


FAQ

使用onectl安装addon的时候,onectl后台执行了哪个动作?

前置条件

用户已经通过onectl configure配置了AK、子账户名称、注册集群ID、当前集群的kubeconfig路径信息。

执行动作

(1) 检查用户账号下是否已创建名为"externalK8sPolicy-logtail-ds"的自定义策略,若不存在则创建该自定义策略并将其授权至子账户

(2) 使用用户配置的AK创建Secret kube-system/alibaba-addon-secret

(3)调用OpenAPI安装logtail-ds插件

节点池检查失败后应该怎么做?

(1) Is connected with intranet............... false

您需要使用注册集群的内网导入代理配置接入自建集群,在此之前,您需要先确保云上云下网络已互联互通。参考文档:https://help.aliyun.com/document_detail/455810.html

(2) Is customized node init script added..... false

由于Kubernetes集群的初始化方式、集群版本都要保持一致,所以在您使用注册集群节点池为IDC自建集群扩容云上ECS之前,您需要首先制作和配置自定义的节点初始化脚本,节点初始化脚本的内容应该跟您idc集群的节点初始化方方式保持一致,并在此基础上配置注册集群下发的ALIBABA_CLOUD_LABELS、ALIBABA_CLOUD_NODE_NAME(该变量将会在ECS初始化时赋值环境变量参考文档:https://help.aliyun.com/document_detail/208053.html

(3) Is nodeaffinity added.................... false

云下自建集群扩容云上ECS的集群,需要保证云下节点只运行云下集群容器网络插件,云上ECS只运行terway容器网络插件。注册集群节点池扩容的云上ECS都默认打标alibabacloud.com/external=true,所以您需要在云下容器网络插件中添加nodeAffinity使其不要被调度到云上ECS即可。参考文档:https://help.aliyun.com/document_detail/208052.html#section-jo1-b9e-q7v

(4) Is terway addon installed................ false

idc自建集群中的节点运行您自己的容器网络插件,云上ECS只能运行terway容器网络插件,所以您需要在使用节点池扩容ECS前,首先确保terway组件已正常安装。 请使用 onectl addon install terway-eniip进行一键安装和配置

(5) Is autoscaler addon installed............ false

如果您需要启用自动弹性伸缩节点池,请首先确保autoscaler组件可以正常安装和运行。请使用onectl addon install autoscaler进行一键安装和配置

相关实践学习
通过Ingress进行灰度发布
本场景您将运行一个简单的应用,部署一个新的应用用于新的发布,并通过Ingress能力实现灰度发布。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
目录
相关文章
|
9天前
|
Kubernetes 监控 Cloud Native
Kubernetes集群的高可用性与伸缩性实践
Kubernetes集群的高可用性与伸缩性实践
36 1
|
30天前
|
JSON Kubernetes 容灾
ACK One应用分发上线:高效管理多集群应用
ACK One应用分发上线,主要介绍了新能力的使用场景
|
1月前
|
Kubernetes 持续交付 开发工具
ACK One GitOps:ApplicationSet UI简化多集群GitOps应用管理
ACK One GitOps新发布了多集群应用控制台,支持管理Argo CD ApplicationSet,提升大规模应用和集群的多集群GitOps应用分发管理体验。
|
1月前
|
Kubernetes 应用服务中间件 nginx
搭建Kubernetes v1.31.1服务器集群,采用Calico网络技术
在阿里云服务器上部署k8s集群,一、3台k8s服务器,1个Master节点,2个工作节点,采用Calico网络技术。二、部署nginx服务到k8s集群,并验证nginx服务运行状态。
603 1
|
1月前
|
Kubernetes Cloud Native 流计算
Flink-12 Flink Java 3分钟上手 Kubernetes云原生下的Flink集群 Rancher Stateful Set yaml详细 扩容缩容部署 Docker容器编排
Flink-12 Flink Java 3分钟上手 Kubernetes云原生下的Flink集群 Rancher Stateful Set yaml详细 扩容缩容部署 Docker容器编排
76 3
|
1月前
|
Kubernetes Cloud Native 微服务
微服务实践之使用 kube-vip 搭建高可用 Kubernetes 集群
微服务实践之使用 kube-vip 搭建高可用 Kubernetes 集群
114 1
|
1月前
|
负载均衡 应用服务中间件 nginx
基于Ubuntu-22.04安装K8s-v1.28.2实验(二)使用kube-vip实现集群VIP访问
基于Ubuntu-22.04安装K8s-v1.28.2实验(二)使用kube-vip实现集群VIP访问
57 1
|
1月前
|
Kubernetes Ubuntu Linux
Centos7 搭建 kubernetes集群
本文介绍了如何搭建一个三节点的Kubernetes集群,包括一个主节点和两个工作节点。各节点运行CentOS 7系统,最低配置为2核CPU、2GB内存和15GB硬盘。详细步骤包括环境配置、安装Docker、关闭防火墙和SELinux、禁用交换分区、安装kubeadm、kubelet、kubectl,以及初始化Kubernetes集群和安装网络插件Calico或Flannel。
155 0
|
1月前
|
弹性计算 Kubernetes Linux
如何使用minikube搭建k8s集群
如何使用minikube搭建k8s集群
|
1月前
|
Kubernetes 应用服务中间件 nginx
k8s学习--k8s集群使用容器镜像仓库Harbor
本文介绍了在CentOS 7.9环境下部署Harbor容器镜像仓库,并将其集成到Kubernetes集群的过程。环境中包含一台Master节点和两台Node节点,均已部署好K8s集群。首先详细讲述了在Harbor节点上安装Docker和docker-compose,接着通过下载Harbor离线安装包并配置相关参数完成Harbor的部署。随后介绍了如何通过secret和serviceaccount两种方式让Kubernetes集群使用Harbor作为镜像仓库,包括创建secret、配置节点、上传镜像以及创建Pod等步骤。最后验证了Pod能否成功从Harbor拉取镜像运行。
121 0

相关产品

  • 容器服务Kubernetes版
  • 下一篇
    无影云桌面