北京供销大数据集团构建高效、安全、可靠的银行灾备体系

本文涉及的产品
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
简介:

3月31日,河北省银行业网络与信息安全联席会暨第七届河北地区银行系统IT技术交流会在石家庄召开。在加强各银行之间信息化工作协作的基础上,相关IT企业参与银行信息化实践成果展示。作为大数据“国家队”的重要一员,北京供销大数据集团(简称“SinoBBD”)应邀参加技术交流会。会上,集团高级产品经理王樑代表集团就河北承德德鸣大数据产业园建设情况进行汇报,并与各大银行代表就数据中心高可用与灾备体系等建设难题进行深入沟通。


金融是我国市场经济的血脉。在当前形势下,地方经济实现又好又快的发展必然离不开银行金融系统的有力支持,而作为金融业务创新应用的工具之一,数据中心建设也迎来了黄金时期。但伴随数据大集中,信息科技风险也出现相对集中的状况,为避免数据中心故障、地区灾害带来的业务中断隐患,银行灾备体系建设越来越受到重视。但是,作为省内银行灾备体系,常常受到有效扩容瓶颈限制,无法规避区域性灾难,不能保证数据中心的等级要求、选址、建设、管理难等问题的困扰。

显然,传统数据中心灾备体系的高投入、长周期、重维护的特点早已无法满足现代银行业、特别是省内银行快速增长的业务需求。而生产系统和灾备系统采用第三方托管的服务模式,则因其灵活可靠、即采即用和运维高效等优势,正在逐步成为新的趋势。

对此,北京供销大数据集团高级产品经理王樑在会上表示:“作为各项IT金融服务的基础支撑,相对匮乏的高等级数据中心资源、运维能力、运维团队,是区域性城商行与农村金融机构生产中心高可用性建设,以及灾备体系建设中最棘手的问题。从生产中心容量扩展,到灾备建设所涉及的选址、建设、资金投入和运维管理等一系列问题都牵扯了科技部门很多精力。为此,北京供销大数据集团全面践行国家大数据一体化和京津冀协同发展战略,通过承德德鸣大数据产业园这一高可靠数据中心标杆项目,以及一整套专为金融行业打造的服务,包括本地冗余、多地灾备的容灾体系等,可为河北省银行用户真正实现数据的‘有备无患’,助力银行、证券、保险等行业用户实现业务革新、升级与转型。

北京供销大数据集团作为大数据国家队,为构建全国一体化国家大数据中心体系战略而生,通过3+10+X战略的逐步落地,竭力打造国内最大规模第三方公立大数据中心集群。面向以银行信息系统持续运行保障的需求,北京供销大数据集团向用户提供更可靠的数据中心、更专注的运维团队、更安全的灾备解决方案,致力于全面解决银行灾备体系建设面临的任务挑战。

作为灾备建设与高可靠数据中心的样板,承德德鸣大数据产业园的3号数据中心如期竣工,并已进入预售阶段。按照国际高标准设计的3号数据中心,符合ANSI/TIA/EIA-942的Tier-Ⅲ级别和GB50174-2008的A级机房标准,其PUE值规划设计≤1.4。3号数据中心将大规模业务承载能力、领先的技术应用、高等级的安全保障、专业的运营维护能力,以及更加低廉的运营成本聚于一身。其中,高等级网络平台将供鸣、北京北、德鸣连通成“大北京专线网络”,提供三地数据中心间互联、互备的网络服务,使其真正可以成为北京的大数据后备基地。


据王樑介绍,在“两地三中心”建设方面,北京供销大数据集团开拓创新,打通旗下包括北京、承德、贵阳等地相隔较远的数据产业园,形成数据中心之间的数据走廊,两地三中心的模式有望扩展为“多地多中心”,这将极大提升用户数据的可靠性和可用性,为银行用户提供了最大化的数据保护可能性。作为特色之一,河北承德德鸣数据中心还将采用北京为“前店”,承德为“后厂”的“前店后厂”模式,充分发挥互补优势,打造更可靠的容灾备份服务。



本文出处:畅享网
本文来自云栖社区合作伙伴畅享网,了解相关信息可以关注vsharing.com网站。

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
目录
打赏
0
0
0
0
26198
分享
相关文章
高科技生命体征探测器、情绪感受器以及传感器背后的大数据平台在健康监测、生命体征检测领域的设想与系统构建
本系统由健康传感器、大数据云平台和脑机接口设备组成。传感器内置生命体征感应器、全球无线定位、人脸识别摄像头等,搜集超出现有科学认知的生命体征信息。云平台整合大数据、云计算与AI,处理并传输数据至接收者大脑芯片,实现实时健康监测。脑机接口设备通过先进通讯技术,实现对健康信息的实时感知与反馈,确保身份验证与数据安全。
鹰角基于 Flink + Paimon + Trino 构建湖仓一体化平台实践项目
本文整理自鹰角网络大数据开发工程师朱正军在Flink Forward Asia 2024上的分享,主要涵盖四个方面:鹰角数据平台架构、数据湖选型、湖仓一体建设及未来展望。文章详细介绍了鹰角如何构建基于Paimon的数据湖,解决了Hudi入湖的痛点,并通过Trino引擎和Ranger权限管理实现高效的数据查询与管控。此外,还探讨了湖仓一体平台的落地效果及未来技术发展方向,包括Trino与Paimon的集成增强、StarRocks的应用以及Paimon全面替换Hive的计划。
243 1
鹰角基于 Flink + Paimon + Trino 构建湖仓一体化平台实践项目
大数据-166 Apache Kylin Cube 流式构建 整体流程详细记录
大数据-166 Apache Kylin Cube 流式构建 整体流程详细记录
144 5
鹰角基于 Flink + Paimon + Trino 构建湖仓一体化平台实践项目
鹰角基于 Flink + Paimon + Trino 构建湖仓一体化平台实践项目
基于阿里云大数据平台的实时数据湖构建与数据分析实战
在大数据时代,数据湖作为集中存储和处理海量数据的架构,成为企业数据管理的核心。阿里云提供包括MaxCompute、DataWorks、E-MapReduce等在内的完整大数据平台,支持从数据采集、存储、处理到分析的全流程。本文通过电商平台案例,展示如何基于阿里云构建实时数据湖,实现数据价值挖掘。平台优势包括全托管服务、高扩展性、丰富的生态集成和强大的数据分析工具。
|
2月前
|
大数据的隐私与安全:你的一举一动,都在“裸奔”?
大数据的隐私与安全:你的一举一动,都在“裸奔”?
78 15
美的楼宇科技基于阿里云 EMR Serverless Spark 构建 LakeHouse 湖仓数据平台
美的楼宇科技基于阿里云 EMR Serverless Spark 建设 IoT 数据平台,实现了数据与 AI 技术的有效融合,解决了美的楼宇科技设备数据量庞大且持续增长、数据半结构化、数据价值缺乏深度挖掘的痛点问题。并结合 EMR Serverless StarRocks 搭建了 Lakehouse 平台,最终实现不同场景下整体性能提升50%以上,同时综合成本下降30%。
MaxCompute Data + AI:构建 Data + AI 的一体化数智融合
本次分享将分为四个部分讲解:第一部分探讨AI时代数据开发范式的演变,特别是MaxCompute自研大数据平台在客户工作负载和任务类型变化下的影响。第二部分介绍MaxCompute在资源大数据平台上构建的Data + AI核心能力,提供一站式开发体验和流程。第三部分展示MaxCompute Data + AI的一站式开发体验,涵盖多模态数据管理、交互式开发环境及模型训练与部署。第四部分分享成功落地的客户案例及其收益,包括互联网公司和大模型训练客户的实践,展示了MaxFrame带来的显著性能提升和开发效率改进。
大数据-163 Apache Kylin 全量增量Cube的构建 手动触发合并 JDBC 操作 Scala
大数据-163 Apache Kylin 全量增量Cube的构建 手动触发合并 JDBC 操作 Scala
94 2
大数据-163 Apache Kylin 全量增量Cube的构建 手动触发合并 JDBC 操作 Scala
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等