缘何中国光大银行选择华为FusionCube构建融合架构资源池?

简介:

近日,华为FusionCube超融合基础设施中标中国光大银行融合架构二级资源池建设项目。中国光大银行总部设在北京,是经国务院批复并经中国人民银行批准设立的金融企业,在英国《银行家》杂志2015年发布的“世界1000家大银行排名中,中国光大银行位列第57位。凭借卓越的创新能力和出色的业绩表现,中国光大银行被评为“年度最具创新银行”,荣膺“CCTV中国年度品牌”。

该项目涉及光大银行全部分行的资源池新建部署,实现了华为公司的超融合基础设施FusionCube及虚拟化软件FusionSphere在光大银行全行的规模应用。光大银行云建设的核心思想是参照业界主流的云计算架构,进行光大银行私有云整体能力建设,通过私有云建设,计划实现以下重点目标:

100%覆盖业务支持

100%覆盖服务开通和配置

实现私有云内部资源池的流动性和互操作性

在建设过程中,需要实现分别部署,统一管理,以异构资源来实现全行的资源池化。总、分行所有资源纳入云管理平台统一管理,并将分行生产交易应用集中迁移至总行一级资源池,形成全行性总、分两级资源池,实现资源的集中管理,统一调度。光大银行经过多方选型,决定采用华为公司超融合产品系列中的FusionCube6000 进行搭建,内嵌华为的云平台软件来实现整体的资源池的构建。基于华为的FusionCube 的融合架构资源池解决方案具有以下关键特点:

可部署在4U/2U的服务器中,最大化减少空间占用、最大限度保障性能,集中化管理,满足关键应用服务场景;

分支机构无需专业IT运维人员,一个界面统一管理,实现远程的、统一的分支机构软硬件管理;

极简的运维管理,使得规划设计、交付、运维投入大幅下降,节省TCO 至少35%以上;

采用超融合架构实现了性能卓越,通过全对称分布式架构,内嵌分布式存储引擎,消除性能瓶颈;

采用多副本、跨节点备份的方式实现了数据的可靠,在硬件故障时保障数据的安全和业务的稳定;

正因为华为的FusionCube具有以上特点,越来越多的金融客户开始选择华为的FusionCube来部署业务。据了解,华为FusionCube超融合基础设施已经在中国工商银行,中国农业银行,招商银行,浦发银行、中信银行、大地财险、汇港资讯、太平洋保险等众多金融机构得到了广泛应用。

本文转自d1net(转载)

相关文章
|
1天前
|
并行计算 PyTorch 算法框架/工具
融合AMD与NVIDIA GPU集群的MLOps:异构计算环境中的分布式训练架构实践
本文探讨了如何通过技术手段混合使用AMD与NVIDIA GPU集群以支持PyTorch分布式训练。面对CUDA与ROCm框架互操作性不足的问题,文章提出利用UCC和UCX等统一通信框架实现高效数据传输,并在异构Kubernetes集群中部署任务。通过解决轻度与强度异构环境下的挑战,如计算能力不平衡、内存容量差异及通信性能优化,文章展示了如何无需重构代码即可充分利用异构硬件资源。尽管存在RDMA验证不足、通信性能次优等局限性,但该方案为最大化GPU资源利用率、降低供应商锁定提供了可行路径。源代码已公开,供读者参考实践。
13 3
融合AMD与NVIDIA GPU集群的MLOps:异构计算环境中的分布式训练架构实践
|
9天前
|
机器学习/深度学习 测试技术 网络架构
FANformer:融合傅里叶分析网络的大语言模型基础架构
近期大语言模型(LLM)的基准测试结果显示,OpenAI的GPT-4.5在某些关键评测中表现不如规模较小的模型,如DeepSeek-V3。这引发了对现有LLM架构扩展性的思考。研究人员提出了FANformer架构,通过将傅里叶分析网络整合到Transformer的注意力机制中,显著提升了模型性能。实验表明,FANformer在处理周期性模式和数学推理任务上表现出色,仅用较少参数和训练数据即可超越传统Transformer。这一创新为解决LLM扩展性挑战提供了新方向。
26 5
FANformer:融合傅里叶分析网络的大语言模型基础架构
|
24天前
|
机器学习/深度学习 算法 安全
用PyTorch从零构建 DeepSeek R1:模型架构和分步训练详解
本文详细介绍了DeepSeek R1模型的构建过程,涵盖从基础模型选型到多阶段训练流程,再到关键技术如强化学习、拒绝采样和知识蒸馏的应用。
217 3
用PyTorch从零构建 DeepSeek R1:模型架构和分步训练详解
|
15天前
|
机器学习/深度学习 设计模式 API
Python 高级编程与实战:构建微服务架构
本文深入探讨了 Python 中的微服务架构,介绍了 Flask、FastAPI 和 Nameko 三个常用框架,并通过实战项目帮助读者掌握这些技术。每个框架都提供了构建微服务的示例代码,包括简单的 API 接口实现。通过学习本文,读者将能够使用 Python 构建高效、独立的微服务。
|
2月前
|
机器学习/深度学习 计算机视觉
Make U-Nets Great Again!北大&华为提出扩散架构U-DiT,六分之一算力即可超越DiT
北京大学和华为研究人员提出U-shaped Diffusion Transformers(U-DiTs),重新审视U-Net架构在扩散模型中的潜力。通过引入Token Downsampling方法,U-DiTs在ImageNet 256x256和512x512生成任务中显著提升性能并降低计算成本。实验表明,U-DiT模型不仅超越了DiT模型的性能,在计算效率上也更具优势。论文地址:https://arxiv.org/pdf/2405.02730
89 43
|
1月前
|
存储 人工智能 并行计算
2025年阿里云弹性裸金属服务器架构解析与资源配置方案
🚀 核心特性与技术创新:提供100%物理机性能输出,支持NVIDIA A100/V100 GPU直通,无虚拟化层损耗。网络与存储优化,400万PPS吞吐量,ESSD云盘IOPS达100万,RDMA延迟<5μs。全球部署覆盖华北、华东、华南及海外节点,支持跨地域负载均衡。典型应用场景包括AI训练、科学计算等,支持分布式训练和并行计算框架。弹性裸金属服务器+OSS存储+高速网络综合部署,满足高性能计算需求。
|
2月前
|
存储 消息中间件 前端开发
工厂人员定位管理系统架构设计:构建一个高效、可扩展的人员精确定位
本文将深入探讨工厂人员定位管理系统的架构设计,详细解析前端展示层、后端服务层、数据库设计、通信协议选择等关键环节,并探讨如何通过微服务架构实现系统的可扩展性和稳定性。
80 10
|
3月前
|
机器学习/深度学习 算法 数据可视化
基于深度混合架构的智能量化交易系统研究: 融合SSDA与LSTM自编码器的特征提取与决策优化方法
本文探讨了在量化交易中结合时序特征和静态特征的混合建模方法。通过整合堆叠稀疏降噪自编码器(SSDA)和基于LSTM的自编码器(LSTM-AE),构建了一个能够全面捕捉市场动态特性的交易系统。SSDA通过降噪技术提取股票数据的鲁棒表示,LSTM-AE则专注于捕捉市场的时序依赖关系。系统采用A2C算法进行强化学习,通过多维度的奖励计算机制,实现了在可接受的风险水平下最大化收益的目标。实验结果显示,该系统在不同波动特征的股票上表现出差异化的适应能力,特别是在存在明确市场趋势的情况下,决策准确性较高。
103 5
基于深度混合架构的智能量化交易系统研究: 融合SSDA与LSTM自编码器的特征提取与决策优化方法
|
3月前
|
Serverless 决策智能 UED
构建全天候自动化智能导购助手:从部署者的视角审视Multi-Agent架构解决方案
在构建基于多代理系统(Multi-Agent System, MAS)的智能导购助手过程中,作为部署者,我体验到了从初步接触到深入理解再到实际应用的一系列步骤。整个部署过程得到了充分的引导和支持,文档详尽全面,使得部署顺利完成,未遇到明显的报错或异常情况。尽管初次尝试时对某些复杂配置环节需反复确认,但整体流程顺畅。
|
3月前
|
弹性计算 API 持续交付
后端服务架构的微服务化转型
本文旨在探讨后端服务从单体架构向微服务架构转型的过程,分析微服务架构的优势和面临的挑战。文章首先介绍单体架构的局限性,然后详细阐述微服务架构的核心概念及其在现代软件开发中的应用。通过对比两种架构,指出微服务化转型的必要性和实施策略。最后,讨论了微服务架构实施过程中可能遇到的问题及解决方案。

热门文章

最新文章