基于Rancher 2.2.5的高可用分布式集群环境搭建(一)

本文涉及的产品
公网NAT网关,每月750个小时 15CU
简介: 基于Rancher 2.2.5的K8s集群环境搭建,包括Rancher的高可用配置,分布式存储Glusterfs的安装配置等。本文主要目的是记录在搭建内部学习的整个过程,仅供参考。

说明:本文主要目的是记录在搭建内部学习的整个过程,仅供参考。

  • 机器配置及说明
    机器简单以cloud-node(n)的方式命名,因为该集群环境中会部署rancher,k8s,harbor,helm,heketi,glusterfs等; 并不承担单一角色; 本次安装均用appuser用户进行、该用户拥有sudoer权限。

    • 操作系统: Red Hat Enterprise Linux Server release 7.6
    • CPU:2C
    • 内存:8G
    • 存储:60G
    • Docker: 18.06.3-ce
机器IP 机器名 角色 附加存储 说明
10.122.6.30 cloud-node1 load balancer(nginx) 此机器部署在DMZ区,用于更新系统
10.122.4.44 cloud-node2 rancher,control panel,etcd IDC区,由cloud-node1复制
10.122.4.45 cloud-node3 rancher,control panel,etcd IDC区,由cloud-node1复制
10.122.4.46 cloud-node4 rancher,control panel,etcd IDC区,由cloud-node1复制
10.122.4.47 cloud-node5 woker IDC区,由cloud-node1复制
10.122.4.48 cloud-node6 woker 500G IDC区,由cloud-node1复制
10.122.4.49 cloud-node7 woker 500G IDC区,由cloud-node1复制
10.122.4.50 cloud-node8 woker 500G IDC区,由cloud-node1复制
  1. Rancher 集群的安装

    1. 环境配置 基础环境配置

      • 节点机器配置见上
      • 主机名配置
        sudo hostnamectl --static set-hostname cloud-node1
      • 配置cloud-node1至其他节点的免密登陆(在节点cloud-node1)

         ssh-keygen -t rsa #一路enter,采用默认值
         ssh-copy-id -i ~/.ssh/id_rsa.pub appuser@cloud-node2 #yes,输入密码; 其他节点同
      • Host配置

        sudo vi /etc/hosts
        10.122.6.30  cloud-node1 
        10.122.4.44  cloud-node2 
        10.122.4.45  cloud-node3 
        10.122.4.46  cloud-node4 
        10.122.4.47  cloud-node5 
        10.122.4.48  cloud-node6 
        10.122.4.49  cloud-node7 
        10.122.4.50  cloud-node8 
        
      • 关闭selinux【克隆前已完成】
        sudo sed -i 's/SELINUX=enforcing/SELINUX=disabled/g' /etc/selinux/config
      • 关闭防火墙【克隆前已完成】
        sudo systemctl stop firewalld.service && systemctl disable firewalld.service
      • 配置主机时间、时区、系统语言【由于是克隆的,本步骤跳过】
      • Kernel性能调优【克隆前已完成】

        sudo cat >> /etc/sysctl.conf<<EOF
        net.ipv4.ip_forward=1
        net.bridge.bridge-nf-call-iptables=1
        net.ipv4.neigh.default.gc_thresh1=4096
        net.ipv4.neigh.default.gc_thresh2=6144
        net.ipv4.neigh.default.gc_thresh3=8192
        EOF     

        数值根据实际环境自行配置,最后执行sudo sysctl -p保存配置。

      • 加载内核

        sudo cat >modules.sh <<EOF
        modprobe br_netfilter
        modprobe ip6_udp_tunnel
        modprobe ip_set
        modprobe ip_set_hash_ip
        modprobe ip_set_hash_net
        modprobe iptable_filter
        modprobe iptable_nat
        modprobe iptable_mangle
        modprobe iptable_raw
        modprobe nf_conntrack_netlink
        modprobe nf_conntrack
        modprobe nf_conntrack_ipv4
        modprobe nf_defrag_ipv4
        modprobe nf_nat
        modprobe nf_nat_ipv4
        modprobe nf_nat_masquerade_ipv4
        modprobe nfnetlink
        modprobe udp_tunnel
        #modprobe VETH
        #modprobe VXLAN
        modprobe x_tables
        modprobe xt_addrtype
        modprobe xt_conntrack
        modprobe xt_comment
        modprobe xt_mark
        modprobe xt_multiport
        modprobe xt_nat
        modprobe xt_recent
        modprobe xt_set
        modprobe xt_statistic
        modprobe xt_tcpudp
        EOF
        
        sudo sh modules.sh
      • Java && Docker 安装【克隆前已完成】

        tar -zxvf jdk-8u221-linux-x64.tar.gz
        cd jdk1.8.0_221/
        sudo mv jdk1.8.0_221/ /opt/
        sudo alternatives --install /usr/bin/java java /opt/jdk1.8.0_221/bin/java 3
        sudo alternatives --config java (3)
        java -version
         
        sudo yum-config-manager  --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
        
        sudo yum install -y docker-ce-18.06.3.ce-3.el7
        
        usermod -aG docker appuser #将appuser添加到组docker
        
        systemctl start docker & systemctl enable docker
    2. HA 离线安装离线HA安装

      • 负载均衡器配置

        在cloud-node1节点上运行 
        vi nginx.conf
        worker_processes 4;
        worker_rlimit_nofile 40000;
        
        events {
          worker_connections 8192;
        }
        
        stream {
          upstream rancher_servers_http {
            least_conn;
            server 10.122.4.44:80 max_fails=3 fail_timeout=5s;
            server 10.122.4.45:80 max_fails=3 fail_timeout=5s;
            server 10.122.4.46:80 max_fails=3 fail_timeout=5s;
          }
          server {
            listen     80;
            proxy_pass rancher_servers_http;
          }
        
          upstream rancher_servers_https {
            least_conn;
            server 10.122.4.44:443 max_fails=3 fail_timeout=5s;
            server 10.122.4.45:443 max_fails=3 fail_timeout=5s;
            server 10.122.4.46:443 max_fails=3 fail_timeout=5s;
          }
          server {
            listen     443;
            proxy_pass rancher_servers_https;
          }
        } 
        
        
        在自己的虚拟机中下载好nginx:1.14的image,导出后上传到cloud-node1并导入
        在虚拟中下载`docker pull nginx:1.14 ` 下载后导出 docker save -o nginx_1.14 nginx:1.14
        
        将文件上传至cloud-node1中,并执行 
        docker load --input nginx_1.14
        docker run -d --restart=unless-stopped -p 80:80 -p 443:443 -v /home/appuser/installs/nginx.conf:/etc/nginx/nginx.conf   nginx:1.14
      • 安装准备

        1. RKE安装
          创建目录 mkdir -p /opt/rancher/cli && cd /opt/rancher/cli。 下载并发传v0.2.7-rke_linux-amd64至该目录下

          mv v0.2.7-rke_linux-amd64 rke
          chmod +x rke
          
          sudo mv rke /opt/rancher/cli    
          echo "export PATH=/opt/rancher/cli:\$PATH" >> /etc/profile
          source /etc/profile
          rke --version
             
        2. 创建RKE配置文件
          vi rancher-cluster.yml

        prepared2

        1. 创建K8S集群
          rke up --config ./rancher-cluster.yml

        因ssh免密配置使用的域名,而rancher-cluster.yml使用的是ip无法通过。 故重新执行:
        ssh-copy-id -i ~/.ssh/id_rsa.pub appuser@10.122.44 #其他机器同

相关实践学习
每个IT人都想学的“Web应用上云经典架构”实战
本实验从Web应用上云这个最基本的、最普遍的需求出发,帮助IT从业者们通过“阿里云Web应用上云解决方案”,了解一个企业级Web应用上云的常见架构,了解如何构建一个高可用、可扩展的企业级应用架构。
目录
相关文章
|
3月前
|
存储 负载均衡 NoSQL
【赵渝强老师】Redis Cluster分布式集群
Redis Cluster是Redis的分布式存储解决方案,通过哈希槽(slot)实现数据分片,支持水平扩展,具备高可用性和负载均衡能力,适用于大规模数据场景。
280 2
|
8月前
|
Cloud Native 关系型数据库 分布式数据库
登顶TPC-C|云原生数据库PolarDB技术揭秘:Limitless集群和分布式扩展篇
阿里云PolarDB云原生数据库在TPC-C基准测试中以20.55亿tpmC的成绩刷新世界纪录,展现卓越性能与性价比。其轻量版满足国产化需求,兼具高性能与低成本,适用于多种场景,推动数据库技术革新与发展。
|
6月前
|
监控 Linux 应用服务中间件
Linux多节点多硬盘部署MinIO:分布式MinIO集群部署指南搭建高可用架构实践
通过以上步骤,已成功基于已有的 MinIO 服务,扩展为一个 MinIO 集群。该集群具有高可用性和容错性,适合生产环境使用。如果有任何问题,请检查日志或参考MinIO 官方文档。作者联系方式vx:2743642415。
2003 57
|
7月前
|
Cloud Native 关系型数据库 分布式数据库
登顶TPC-C|云原生数据库PolarDB技术揭秘:Limitless集群和分布式扩展篇
云原生数据库PolarDB技术揭秘:Limitless集群和分布式扩展篇
|
8月前
|
并行计算 PyTorch 算法框架/工具
融合AMD与NVIDIA GPU集群的MLOps:异构计算环境中的分布式训练架构实践
本文探讨了如何通过技术手段混合使用AMD与NVIDIA GPU集群以支持PyTorch分布式训练。面对CUDA与ROCm框架互操作性不足的问题,文章提出利用UCC和UCX等统一通信框架实现高效数据传输,并在异构Kubernetes集群中部署任务。通过解决轻度与强度异构环境下的挑战,如计算能力不平衡、内存容量差异及通信性能优化,文章展示了如何无需重构代码即可充分利用异构硬件资源。尽管存在RDMA验证不足、通信性能次优等局限性,但该方案为最大化GPU资源利用率、降低供应商锁定提供了可行路径。源代码已公开,供读者参考实践。
626 3
融合AMD与NVIDIA GPU集群的MLOps:异构计算环境中的分布式训练架构实践
|
存储 分布式计算 负载均衡
分布式计算模型和集群计算模型的区别
【10月更文挑战第18天】分布式计算模型和集群计算模型各有特点和优势,在实际应用中需要根据具体的需求和条件选择合适的计算架构模式,以达到最佳的计算效果和性能。
428 62
|
11月前
|
存储 SpringCloudAlibaba Java
【SpringCloud Alibaba系列】一文全面解析Zookeeper安装、常用命令、JavaAPI操作、Watch事件监听、分布式锁、集群搭建、核心理论
一文全面解析Zookeeper安装、常用命令、JavaAPI操作、Watch事件监听、分布式锁、集群搭建、核心理论。
【SpringCloud Alibaba系列】一文全面解析Zookeeper安装、常用命令、JavaAPI操作、Watch事件监听、分布式锁、集群搭建、核心理论
|
分布式计算 Hadoop
Hadoop-27 ZooKeeper集群 集群配置启动 3台云服务器 myid集群 zoo.cfg多节点配置 分布式协调框架 Leader Follower Observer
Hadoop-27 ZooKeeper集群 集群配置启动 3台云服务器 myid集群 zoo.cfg多节点配置 分布式协调框架 Leader Follower Observer
236 1
|
存储 监控 大数据
构建高可用性ClickHouse集群:从单节点到分布式
【10月更文挑战第26天】随着业务的不断增长,单一的数据存储解决方案可能无法满足日益增加的数据处理需求。在大数据时代,数据库的性能、可扩展性和稳定性成为企业关注的重点。ClickHouse 是一个用于联机分析处理(OLAP)的列式数据库管理系统(DBMS),以其卓越的查询性能和高吞吐量而闻名。本文将从我的个人角度出发,分享如何将单节点 ClickHouse 扩展为高可用性的分布式集群,以提升系统的稳定性和可靠性。
1118 0
|
存储 SQL 消息中间件
Hadoop-26 ZooKeeper集群 3台云服务器 基础概念简介与环境的配置使用 架构组成 分布式协调框架 Leader Follower Observer
Hadoop-26 ZooKeeper集群 3台云服务器 基础概念简介与环境的配置使用 架构组成 分布式协调框架 Leader Follower Observer
183 0

热门文章

最新文章