OushuDB 管理指南 集群高可用(3)

本文涉及的产品
注册配置 MSE Nacos/ZooKeeper,118元/月
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
云原生网关 MSE Higress,422元/月
简介: 如果主节点发生故障, 日志同步将停止。此时必须激活备用主节点。激活备用主节点后, Oushu Database 将重建最后一成功提交的事务时的状态。

image.png

故障切换

如果主节点发生故障, 日志同步将停止。此时必须激活备用主节点。激活备用主节点后, Oushu Database 将重建最后一成功提交的事务时的状态。

手动激活备用主节点

  1. 确保已为系统配置了备用主节点。
  2. 请登录到 Oushu Database 备用主节点并激活:
oushu_master$ hawq activate standby

激活备用主节点后, 它将成为 Oushu Database 群集的活跃的主节点。

  1. (可选)配置新的备用主节点。有关说明, 请参阅  「向现有群集添加备用主节点」- http://www.oushu.com/docs/ch/master-mirroring.html#id4  。
  2. 通过在主节点上执行以下命令来检查 Oushu Database 群集的状态:
oushu_master$ hawq state

新激活的主节点的状态应为 active。如果配置了新的备用主节点, 则备用主节点状态为 passive。当未配置备用主节点时, 该命令将显示 -No entries found, 指示没有配置主节点。

  1. 查询该 gp_segment_configuration 表来验证 segment 节点是否已将自己注册到新的 master 节点:
oushu_master$ psql dbname -c 'SELECT * FROM gp_segment_configuration;'
  1. 最后, 通过查询 gp_master_mirroring 视图来检查新添加的备用主节点的状态。有关说明, 请参阅  「检查备用主节点的状态」- http://www.oushu.com/docs/ch/master-mirroring.html#id13  。

自动激活备用主节点

最新的 Oushu Database 支持备用主节点的自动激活,您可以按如下步骤打开此功能。

  1. 确保已为系统配置了备用主节点。
  2. 您可以在启动集群前,在配置文件 hawq-site.xml 中添加如下属性并同步到各节点,也可以在启动集群后再修改 GUC 值。 (友情提示:对于初次使用 Oushu Database 的用户,建议先跳过此步骤,避免因某些操作不慎导致 master 启动失败,引发主节点切换,给后续操作带来麻烦。)
<property><name>enable_master_auto_ha</name><value>on</value></property><property><name>ha_zookeeper_quorum</name><value>ZKHOST1:2181,ZKHOST2:2181,ZKHOST3:2181</value></property>

image.png

强烈建议您将 zookeeper 集群所有服务端的地址添加到 ha_zookeeper_quorum 中,请参见  「安装HDFS」- http://www.oushu.com/docs/ch/installation.html#hdfs  时在 core-site.xml 中对 ha.zookeeper.quorum 的设置,而非使用默认值。这是为了保证 Oushu Database 主节点与备用主节点使用相同的 zookeeper 服务,以避免本地 zookeeper 服务无法使用而导致 Oushu Database 无法自动切换或者发生错误切换。
(注:如果第一个属性值为 on,则要求用户手动将第二个属性值添加到 hawq-site.xml,以确保 zookeeper 服务被能正常访问,否则 Oushu Database 将不会启动。)

  1. 启动运行 Oushu Database 后,您可以直接查询上述属性值是否设置正确:
oushu_master$ hawq config -s enable_master_auto_ha
GUC      : enable_master_auto_ha
Value    : on
oushu_master$ hawq config -s ha_zookeeper_quorum
GUC      : ha_zookeeper_quorum
Value    : x.x.x.x:2181,y.y.y.y:2181,z.z.z.z:2181
  1. 如果运行时的集群的上述属性值没有设置恰当(针对跳过第 2 步的用户),您可以在主节点上手动修改,并重启集群:
oushu_master$ hawq config -c enable_master_auto_ha -v on
oushu_master$ hawq config -c ha_zookeeper_quorum -v x.x.x.x:2181,y.y.y.y:2181,z.z.z.z:2181
oushu_master$ hawq restart cluster
  1. 在 zookeeper 服务能正常访问时(半数以上zookeeper节点存活),Oushu Database 的备用主节点能在主节点故障后 2~3 分钟内完成自动激活。 (注:此时集群中不再有备用主节点,如需添加,后续步骤参见  「向现有群集添加备用主节点」- http://www.oushu.com/docs/ch/master-mirroring.html#id4  。)
目录
相关文章
|
2月前
|
存储 监控 大数据
构建高可用性ClickHouse集群:从单节点到分布式
【10月更文挑战第26天】随着业务的不断增长,单一的数据存储解决方案可能无法满足日益增加的数据处理需求。在大数据时代,数据库的性能、可扩展性和稳定性成为企业关注的重点。ClickHouse 是一个用于联机分析处理(OLAP)的列式数据库管理系统(DBMS),以其卓越的查询性能和高吞吐量而闻名。本文将从我的个人角度出发,分享如何将单节点 ClickHouse 扩展为高可用性的分布式集群,以提升系统的稳定性和可靠性。
160 0
|
5月前
|
Prometheus Kubernetes 监控
打造无缝灾备新境界:运用服务网格ASM,将集群外服务无缝融入集群内服务,铸就高可用性坚盾!
【8月更文挑战第2天】随着微服务架构的应用,服务的高可用性变得至关重要。服务网格如阿里巴巴的ASM提供流量管理、服务发现等功能,支撑高可靠服务系统。本文介绍如何利用ASM实现集群外服务作为集群内服务的灾备方案,确保服务连续性。先决条件包括已部署ASM的Kubernetes集群环境及内外部的关键服务副本。通过定义服务条目、配置虚拟服务和目的地规则,可实现自动或手动故障转移。借助ASM的流量管理能力,确保服务高可用性和业务连续性。
60 10
|
7月前
|
存储 分布式计算 Hadoop
集群的处理能力
【6月更文挑战第18天】集群的处理能力
61 3
|
8月前
|
存储 监控 关系型数据库
关系型数据库设计集群架构节点规划
【5月更文挑战第6天】在实际项目中,可能还需要考虑其他因素,如安全性、合规性、成本等。因此,在进行关系型数据库设计集群架构节点规划时,建议与经验丰富的数据库管理员和架构师合作,以确保项目的成功实施和稳定运行。
71 4
关系型数据库设计集群架构节点规划
|
8月前
集群和分布式
集群和分布式
OushuDB 管理指南 集群高可用(3)
OushuDB 管理指南 集群高可用(3)
80 0
|
存储 Java 关系型数据库
OushuDB 管理指南 集群高可用(1)
OushuDB 管理指南 集群高可用(1)
111 0
|
网络安全
OushuDB 管理指南 集群高可用(2)
OushuDB 管理指南 集群高可用(2)
87 0
|
Cloud Native 容灾
《云原生时代下的分布式云多集群管理-容灾,弹性,多集群负载分布》电子版地址
云原生时代下的分布式云多集群管理-容灾,弹性,多集群负载分布
208 0
《云原生时代下的分布式云多集群管理-容灾,弹性,多集群负载分布》电子版地址
|
Kubernetes 监控 Cloud Native
云原生系列二:如何实现跨数百个K8s集群的管理
​  今天就由叶秋学长带领大家学习云原生专栏系列二:如何实现跨数百个K8s集群的管理? Intuit 实现数百个K8s集群的管理 Intuit公司成立于1983年。它以个人财经软件为主要产品。2019年10月入选《财富》杂志“2019未来50强榜单”,排第21位。截至当年,Intuit公司4大BU、30个业务部门运行了大约160个K8s集群,大约5400个名称空间,每天要进行1300次的部署。那么他是如何做到,今天我们做一个简单的讲解。 首先就是为什么Intuit公司要划分如此多的集群?他们希望在不同的业务部门之间实现隔离,并且各业务部门能够拥有自主权;其次,为了满足合规,将审计限
444 0
云原生系列二:如何实现跨数百个K8s集群的管理