技术好文共享:谁说阿里云不能跑Oracle,让驻云架构师告诉你怎么办!

简介: 技术好文共享:谁说阿里云不能跑Oracle,让驻云架构师告诉你怎么办!

以下正文:


· 关于阿里云的HAVIP


阿里云官方文档的介绍:


私网高可用虚拟IP(Private High-Availability Virtual IP Address,简称HaVip),是一种可以独立创建和释放的私网IP资源。这种私网IP的特殊之处在于,用户可以在ECS上使用协议进行该IP的宣告。


一个HaVip对象可以与最多两台ECS实例进行绑定;绑定了的实例可以通过ARP方式进行该私网IP的宣告。


一台ECS实例可以在持有一个普通私网IP的情况下,可以宣告多个HaVip类型的私网IP,从而同时持有多个私网IP。


利用可在ECS进行私网IP宣告的功能,可以 实现基于VRRP协议的高可用方案,包括keepalived、heartbeat等成熟的开源方案。


HaVip可以与EIP进行绑定,从而实现HaVip在ECS实例间切换时,发向EIP的消息也被重定向到新的ECS实例上。


HaVip仅支持VPC网络环境。Classic网络环境下不提供HaVip功能。


文字多了理解起来困难,直接看图。


在vpc-23c099ge5中有个交换机vsw-23a3275jc的交换机,交换机下有个HAVIP是10.10.1.99,在这个高可用虚拟IP下挂载了两台ECS,那10.10.1.99 这个IP地址就可以在这两台ECS上飘来飘去了。


· Keepalived是什么?


keepalived是一个类似于layer3、4、7交换机制的软件,也就是我们平时说的第3层、第4层和第7层交换。Keepalived的作用是检测web服务器的状态,如果有一台web服务器死机,或工作出现故障,Keepalived将检测到,并将有故障的web服务器从系统中剔除,当web服务器工作正常后Keepalived自动将web服务器加入到服务器群中,这些工作全部自动完成,不需要人工干涉,需要人工做的只是修复故障的web服务器。


但是在这里,keepalived的作用是与HAVIP通信,目的是将HAVIP指向到我们开启了keepalived服务的那台ECS上。


· 关于阿里云的Oracle的高可用


有着Oracle背景的DBA们都知道,Oracle的高可用集群是Real Application Cluster(RAC),但是搭建RAC集群需要几个硬性条网络通讯模式得是广播


网络通讯模式得是广播


必须有两个网络分别用于心跳链路与公网服务


共享存储 (可以使用NFS挂载来解决)


这网络广播模式在阿里云上就无法跳过,更不用说VPC环境下只能有一个网卡地址,只能考虑使用其他的方案来解决OracleDB的高可用环境。


有过阿里云RDS经验的同学都知道,RDS的高可用是通过主备库的服务切换来实现的,当主库损坏的情况下,备库会在很短时间内接管服务,其代价就是在切换过程中session会断开造成短时间的数据库服务中断,大概在30秒左右。而我们在阿里云上实现Oracle高可用也是类似这种方式实现。


言归正传,接下来我们说说如何在阿里云上部署这套高可用方案。


传统方式下的Dataguard架构如下图:


一般是由有两台ECS,IP地址分别为10.10.1.2,与10.10.1.3,这两台ECS上部署着一套Oracle PRIMARY-STANDBY环境,这套Dataguard方案使用Oracle dgbroker管理,当PRIMARY库崩溃的时候,Standby会主动的接管服务,但是这里大家都知道,Oracle database的访问是需要通过listener的,我们两台ECS默认的IP地址是不同的,这样当standby接管服务后,application的数据库连接池要把IP改为10.10.1.3才能再次连接数据库服务,大家都知道,连接池地址的改动是要重启容器,如果application都需要重启,就完全不能称做高可用了,很庆幸,阿里云提供了一个叫做havip的服务。


我们来看看下面这幅图


这里我们在ECS原IP的基础上,加入了HAVIP的概念,application 通过10.10.1.99这个IP地址访问数据库服务,当PRIMARY与STANDBY角色互换之后。


application依然还是通过10.10.1.99访问数据库服务,只是这个IP地址已经漂移到我们曾经的standbyDB了。大家都知道Oracle的RAC环境是必须共享存储的,也就是说当物理文件损坏的时候,整个数据库服务依然还是会崩溃。上面这套HAVIP+Dataguard的方案既实现了数据库物理层面的灾备,同时可以实现数据库服务停止后的快速接管。


以上就是这套方案的框架图,说起来很简单,但是实现起来就麻烦了,主要两个难点:


如果ECS服务不终止,数据库角色做切换,havip如何漂移?


如果ECS服务强制停止了,Havip如何漂移到备用环境?


要解决这两个问题,我们就要用到我们的keepalived了,具体的实现思路,我们来看看。


· 实现思路


1:首先我们先创建一套Dataguard环境,为了保证切换后连接池无需改动,两台ECS上的DB的sid必须一致。


2: oracle的dataguard 通过DGbroker管理,当primary db崩溃physical standby db自动切换为primary;这里必须把observer启动在STANDBY上面,我们试过在管理控制台上强制//代码效果参考:http://www.jhylw.com.cn/101624035.html

关闭ecs,如果observer所在的ECS被强制关闭,dgbroker无法做主备切换。

3: 接下来,将这两台ECS加载到HAVIP服务的集群挂载进集群的时候,可以看到两台ECS都是虚线连接,而且都是(备),这里,我们就要开始部署keepalived服务了。


4:通过keepalived做一个master->backup的配置集群启动,这里贴出两份配置文件这里master (10.10.1.2) backup(10.10.1.3)


master配置文件


keepalived.conf


! Configuration File for keepalived


global_defs {


router_id LVS_DEVEL #集群的ID 主备两台机器的这名字得一样


}


#检查脚本,keepalived会定时的执行shell做检查


vrrp_script chk_http_port {


script "/etc/keepalived/mcheckdb.sh"


interval 2


weight 2


}


vrrp_instance VI_1 {


state MASTER


interface eth0


virtual_router_id 51


priority 100


advert_int 1


authentication {


auth_type PASS


auth_pass 1111


}


track_script {


chk_http_port


}


virtual_ipaddress {


10.10.1.99 dev eth0 label eth0:havip #havip


}


unicast_src_ip 10.10.1.2 #本地IP


unicast_peer {


10.10.1.3 #备机IP


}


}


Backup 配置文件


keepalived.conf


! Configuration File for keepalived


global_defs {


router_id LVS_DEVEL


}


vrrp_script chk_http_port {


script "/etc/keepalived/scheckdb.sh"


interval 2


weight 2


}


vrrp_instance VI_1 {


state BACKUP


interface eth0


virtual_router_id 51


priority 99


advert_int 1


authentication {


auth_type PASS


auth_pass 1111


}


track_script {


chk_http_port


}


virtual_ipaddress {


10.10.1.99 dev eth0 label eth0:havip


}


unicast_src_ip 10.10.1.3


unicast_peer {


10.10.1.2


}


}


这里我们假设两个场景,keepalived启动后。


1、10.10.1.2使用了master(primary)配置文件,10.10.1.3使用了backup(standby)配置文件。当primary db与standby db互换了角色,而这时候havip依然是与master也就是10.10.1.2这台绑定。


2、10.10.1.2使用了master(primary)配置文件,10.10.1.3使用了backup(standby)配置文件。我们强制关闭了10.10.1.2这台ECS,这时候havip漂移到了backup机器上,standby db也变成了primary角色,当我们再次启动10.10.1.2这台ECS后,havip又会飘回master配置文件所在的ECS,这时候数据库服务又无法通过havip访问了。


这里该如何去解决这个问题呢?面对上面的两个场景,我们取了个巧。


注意配置文件中的这两段


这里shell都会定时的在ECS上执行用于检查环境配置。那么既然可以写逻辑,还有什么不能实现?


说到这,大家是不是很想看看shell的代码~


首先我们看看master的检查逻辑


mcheckdb.sh


#!/bin/bash


max_sn="PRIMARY"


su - oracle -c "sh /etc/keepalived/oracle/dbrole.sh"


max_sn=cat /etc/keepalived/oracle/dbrole


if 【 "$max_sn" != "PRIMARY" 】


then


cat /etc/keepalived/samples/backup.keepalived.conf > /etc/keepalived/keepalived.conf


/etc/init.d/keepalived restart


echo date > /etc/keepalived/date


fi;


很简单的逻辑,切换到oracle用户执行一个dbrole.sh,这个shell会执行Oracle db的角色查询,然后把结果写在/etc/keepalived/oracle/dbrole这个文件中。如果结果不是’PRIMARY’就把/etc/keepalived/samples/backup.keepalived.conf 文件内容替换掉当前keepalived进程使用的配置文件,然后再重启keepalived 服务。到这儿,大家应该知道如何做了吧。


scheckdb.sh


#!/bin/bash


max_sn="PHYSICAL STANDBY"


su - oracle -c "sh /etc/keepalived/oracle/dbrole.sh"


max_sn=cat /etc/keepalived/oracle/dbrole


if 【 "$max_sn" = "PRIMARY" 】


then


cat /etc/keepalived/samples/master.keepalived.conf > /etc/keepalived/keepalived.conf


/etc/init.d/keepalived restart


#echo "stop keepalived"


#打开监听


#su - oracle -c " lsnrctl start listener2"


fi;


scheckdb.sh的内容大同小异样,不过多了一步,打开监听listener2,这listener2,就是开启HAVIP的监听地址。


我们可以在两台ECS上都准备好master与backup 两份配置文件,这样不但解决了上面两个场景的问题,还直接让havip可以根据数据库的角色做漂移,保证在dataguard可用的前提下,时刻漂移在我们的primary database。


最后,给大家提供一些代码与一个小工具。


Keepalived 的各种配置文件:


下载地址:


解压后把整个keepallived 目录直接放到/etc下,注意其中有个oracle目录,包括其中的文件必须改成oracle用户的权限。


再提供提供一个配置DG的shell工具,大家没事可以用用,脚本有针对性,仅用于学习不建议配置生产环境时使用。


下载地址:

相关实践学习
借助OSS搭建在线教育视频课程分享网站
本教程介绍如何基于云服务器ECS和对象存储OSS,搭建一个在线教育视频课程分享网站。
7天玩转云服务器
云服务器ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,可降低 IT 成本,提升运维效率。本课程手把手带你了解ECS、掌握基本操作、动手实操快照管理、镜像管理等。了解产品详情: https://www.aliyun.com/product/ecs
相关文章
|
2月前
|
存储 机器学习/深度学习 数据库
阿里云服务器X86/ARM/GPU/裸金属/超算五大架构技术特点、场景适配参考
在云计算技术飞速发展的当下,云计算已经渗透到各个行业,成为企业数字化转型的关键驱动力。选择合适的云服务器架构对于提升业务效率、降低成本至关重要。阿里云提供了多样化的云服务器架构选择,包括X86计算、ARM计算、GPU/FPGA/ASIC、弹性裸金属服务器以及高性能计算等。本文将深入解析这些架构的特点、优势及适用场景,以供大家了解和选择参考。
479 61
|
1月前
|
运维 监控 Cloud Native
智联招聘 × 阿里云 ACK One:云端弹性算力颠覆传统 IDC 架构,打造春招技术新范式
在 2025 年春季招聘季的激战中,智联招聘凭借阿里云 ACK One 注册集群与弹性 ACS 算力的深度融合,成功突破传统 IDC 机房的算力瓶颈,以云上弹性架构支撑千万级用户的高并发访问,实现招聘服务效率与稳定性的双重跃升。文章介绍了 ACK One+ACS 的弹性架构如何解决了春招的燃眉之急,让智联招聘的技术团队能够聚焦创新业务开发,欢迎关注。
|
1月前
|
运维 Kubernetes Cloud Native
智联招聘 × 阿里云 ACK One:云端弹性算力颠覆传统 IDC 架构,打造春招技术新范式
在 2025 年春季招聘季的激战中,智联招聘凭借阿里云 ACK One 注册集群与弹性 ACS 算力的深度融合,成功突破传统 IDC 机房的算力瓶颈,以云上弹性架构支撑千万级用户的高并发访问,实现招聘服务效率与稳定性的双重跃升。
|
2月前
|
人工智能 缓存 自然语言处理
Bolt DIY架构揭秘:从模型初始化到响应生成的技术之旅
在使用Bolt DIY或类似的AI对话应用时,你是否曾好奇过从输入提示词到获得回答的整个过程是如何运作的?当你点击发送按钮那一刻,背后究竟发生了什么?本文将揭开这一过程的神秘面纱,深入浅出地解析AI对话系统的核心技术架构。
95 5
|
1月前
|
数据采集 存储 算法
人才招聘系统开发全解析:从技术底层到商业逻辑的完整架构优雅草卓伊凡|小无|果果|阿才
人才招聘系统开发全解析:从技术底层到商业逻辑的完整架构优雅草卓伊凡|小无|果果|阿才
83 2
人才招聘系统开发全解析:从技术底层到商业逻辑的完整架构优雅草卓伊凡|小无|果果|阿才
|
2月前
|
机器学习/深度学习 人工智能 算法
大型多模态推理模型技术演进综述:从模块化架构到原生推理能力的综合分析
该研究系统梳理了大型多模态推理模型(LMRMs)的技术发展,从早期模块化架构到统一的语言中心框架,提出原生LMRMs(N-LMRMs)的前沿概念。论文划分三个技术演进阶段及一个前瞻性范式,深入探讨关键挑战与评估基准,为构建复杂动态环境中的稳健AI系统提供理论框架。未来方向聚焦全模态泛化、深度推理与智能体行为,推动跨模态融合与自主交互能力的发展。
166 13
大型多模态推理模型技术演进综述:从模块化架构到原生推理能力的综合分析
|
2月前
|
存储 人工智能 自然语言处理
为什么混合专家模型(MoE)如此高效:从架构原理到技术实现全解析
本文深入探讨了混合专家(MoE)架构在大型语言模型中的应用与技术原理。MoE通过稀疏激活机制,在保持模型高效性的同时实现参数规模的大幅扩展,已成为LLM发展的关键趋势。文章分析了MoE的核心组件,包括专家网络与路由机制,并对比了密集与稀疏MoE的特点。同时,详细介绍了Mixtral、Grok、DBRX和DeepSeek等代表性模型的技术特点及创新。MoE不仅解决了传统模型扩展成本高昂的问题,还展现出专业化与适应性强的优势,未来有望推动AI工具更广泛的应用。
332 4
为什么混合专家模型(MoE)如此高效:从架构原理到技术实现全解析
|
25天前
|
存储 缓存 运维
微信读书十周年,后台架构的技术演进和实践总结
微信读书经过了多年的发展,赢得了良好的用户口碑,后台系统的服务质量直接影响着用户的体验。团队多年来始终保持着“小而美”的基因,快速试错与迭代成为常态。后台团队在日常业务开发的同时,需要主动寻求更多架构上的突破,提升后台服务的可用性、扩展性,以不断适应业务与团队的变化。
49 0
|
2月前
|
人工智能 负载均衡 API
长连接网关技术专题(十二):大模型时代多模型AI网关的架构设计与实现
随着 AI 技术快速发展,业务对 AI 能力的渴求日益增长。当 AI 服务面对处理大规模请求和高并发流量时,AI 网关从中扮演着至关重要的角色。AI 服务通常涉及大量的计算任务和设备资源占用,此时需要一个 AI 网关负责协调这些请求来确保系统的稳定性与高效性。因此,与传统微服务架构类似,我们将相关 API 管理的功能(如流量控制、用户鉴权、配额计费、负载均衡、API 路由等)集中放置在 AI 网关层,可以降低系统整体复杂度并提升可维护性。 本文要分享的是B站在大模型时代基于多模型AI的网关架构设计和实践总结,希望能带给你启发。
149 4
|
1月前
|
消息中间件 存储 大数据
阿里云消息队列 Kafka 架构及典型应用场景
阿里云消息队列 Kafka 是一款基于 Apache Kafka 的分布式消息中间件,支持消息发布与订阅模型,满足微服务解耦、大数据处理及实时流数据分析需求。其通过存算分离架构优化成本与性能,提供基础版、标准版和专业版三种 Serverless 版本,分别适用于不同业务场景,最高 SLA 达 99.99%。阿里云 Kafka 还具备弹性扩容、多可用区部署、冷热数据缓存隔离等特性,并支持与 Flink、MaxCompute 等生态工具无缝集成,广泛应用于用户行为分析、数据入库等场景,显著提升数据处理效率与实时性。

推荐镜像

更多