关于阿里云多活容灾的那点事

本文涉及的产品
云原生网关 MSE Higress,422元/月
MSE Nacos/ZooKeeper 企业版试用,1600元额度,限量50份
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
简介: 关于阿里云多活容灾的那点事

一: 业内首本聚焦多活领域的《应用多活技术白皮书》发布,引领云原生领域容灾新标准。


下载地址:

https://developer.aliyun.com/topic/download?id=8266


二:商业化产品 MSHA 发布了完整的应用双活能力,囊括接入层、消息层以及数据层等常见组件,此外还发布了接入层灰度发布、报警巡检指标完善等稳定性能力,为您的应用保驾护航。


产品官网地址:

https://www.aliyun.com/product/aliware/ahas/msha


三:开源产品 AppActive 发布了完整的异地双活概念模型,并给出了接入层、服务层、消息层以及数据层等常见组件的实现,搭配完善的 demo,让您低成本地体验异地多活,为建设生产可用的多活容灾系统打下基础~


开源地址:

https://github.com/alibaba/Appactive


下滑海报,查看一月产品详情!


1.png2.png

相关文章
|
数据中心 运维 网络协议
|
SQL 关系型数据库 MySQL
mysql的binlog恢复数据
mysql的binlog恢复数据
246 0
|
数据采集 并行计算 Java
【文末送书】Python高并发编程:探索异步IO和多线程并发
【文末送书】Python高并发编程:探索异步IO和多线程并发
482 0
|
9月前
|
机器学习/深度学习 人工智能 编解码
Inf-DiT:清华联合智谱AI推出超高分辨率图像生成模型,生成的空间复杂度从 O(N^2) 降低到 O(N)
Inf-DiT 是清华大学与智谱AI联合推出的基于扩散模型的图像上采样方法,能够生成超高分辨率图像,突破传统扩散模型的内存限制,适用于多种实际应用场景。
262 21
Inf-DiT:清华联合智谱AI推出超高分辨率图像生成模型,生成的空间复杂度从 O(N^2) 降低到 O(N)
|
12月前
|
开发框架 Java .NET
C#与Java
在动态且不断发展的软件开发世界中,Java 和 C# 是两个巨头,每个都有自己独特的优势、理念和生态系统。本文深入比较了 Java 和 C#,探讨了它们的历史背景、语言特性、性能指标、跨平台功能等。
371 19
C#与Java
|
人工智能 供应链 算法
通过MES系统,企业实现智能生产排产
MES系统源码,云MES系统全套源码。MES系统是连接企业计划管理系统(如ERP)与工业控制系统的桥梁,实现生产过程的数字化、透明化和智能化。其核心功能包括数据集成与实时采集、智能分析与优化算法、动态调度与调整、生产预测与趋势分析、可视化排产界面、质量控制与供应链优化,并集成物联网、AI及云技术,显著提升生产效率和响应速度,是智能制造的关键技术。
361 3
通过MES系统,企业实现智能生产排产
|
算法 搜索推荐 Java
数据结构与算法学习十三:基数排序,以空间换时间的稳定式排序,速度很快。
基数排序是一种稳定的排序算法,通过将数字按位数切割并分配到不同的桶中,以空间换时间的方式实现快速排序,但占用内存较大,不适合含有负数的数组。
194 0
数据结构与算法学习十三:基数排序,以空间换时间的稳定式排序,速度很快。
|
人工智能 固态存储
直播基地、SCN机构对于AI数字人直播独立部署的需求量暴增!
青否数字人提供低成本、高效率的数字人直播解决方案,适合直播基地和SCN机构构建直播矩阵。只需几万块,商家可独立部署源码(zhibo175),实现真人1:1克隆,包括形象和声音。操作简单,通过绿幕视频和声音样本即可快速克隆数字人主播。此外,青否的直播专业版仅需云服务器,降低运营成本,相比其他厂商,服务每个商家成本低至1元。商家还能享受私有化部署带来的品牌独立性和数据安全性。
直播基地、SCN机构对于AI数字人直播独立部署的需求量暴增!
|
机器学习/深度学习 存储 JSON
YOLOv5的Tricks | 【Trick10】从PyTorch Hub加载YOLOv5
YOLOv5的Tricks | 【Trick10】从PyTorch Hub加载YOLOv5
1407 0
YOLOv5的Tricks | 【Trick10】从PyTorch Hub加载YOLOv5
|
存储 机器学习/深度学习 算法
如何准确的估计llm推理和微调的内存消耗
最近发布的三个大型语言模型——Command-R+ (104B参数), Mixtral-8x22b (141B参数的MoE模型), 和 Llama 3 70b (70.6B参数)——需要巨大的内存资源。推理时,Command-R+需193.72GB GPU RAM,Mixtral-8x22B需262.63GB,Llama 370b需131.5GB。激活的内存消耗根据序列长度、批大小等因素变化。文章详细介绍了计算这些模型内存需求的方法,并探讨了如何通过量化、优化器优化和梯度检查点减少内存使用,以适应微调和推理。
2007 0