《私有云计算整合、虚拟化和面向服务的基础设施》一第2章未来数据中心的架构及技术

简介: 本节书摘来自华章出版社《私有云计算整合、虚拟化和面向服务的基础设施》一 书中的第2章,作者:(美)Stephen R.Smoot Nam K.Tan,更多章节内容可以访问云栖社区“华章计算机”公众号查看。

第2章未来数据中心的架构及技术

鉴以往事,有资于后人治道。
—格言

在第1章,我们探讨了以下几个抽象层概念:
硬件
服务
商业实现
位置
为了实现私有云计算,我们必须首先确定现有企业基础设施已经包含了这些抽象层(参见图1-1),换句话说,大型企业的数据中心必须进化成私有云。千里之行始于跬步,从云计算角度出发,这关键的一步就是虚拟化。构建私有云基础设施最好的方法是,在继续利用现有企业IT资源的同时,随着时间的发展,逐步将完全虚拟化的未来数据中心(Data Center,DC)迁移。
本章主要讨论数据中心虚拟化,特别是服务器及存储设备的虚拟化,同时也涉及了虚拟服务层访问设计、无回路Layer-2(L2)设计、服务器I/O整合以及数据中心统一光纤。本章将重点探讨通过新兴未来数据中心体系结构及技术,在数据中心构建面向服务的基础设施SOI,实现云基础设施即服务(Infrastructure-as-a-Service,IaaS)。
图2-1是有关云计算各层(子模块)的预览。
服务器模块
应用软件层
虚拟机器层
虚拟接入层
计算层
存储模块
存储阵列
SAN层
SAN扩展
光纤模块

screenshot

接入层
汇聚层及服务汇聚层
核心层
WAN模块
对等层
未来WAN层
第2章内容涵盖了服务器、存储以及光纤模块。有关各层(子模块)功能的更详细介绍,请参见8.4节的内容。
服务器虚拟化有助于将物理服务器整合成虚拟机(Virtual Machine,VM),这些虚拟机必须与某些形式的L2虚拟接入层(参见图2-1)互通。首先需要建立虚拟接入层,更多有关该过程的细节请参见2.3节的相关内容。
实现虚拟接入层后,接下来需要借助SAN(参见图2-1)将存储访问连接到VM。读者也可以借此机会使用各种存储虚拟化技术来整合存储设备。更多存储虚拟化技术的细节信息请参考2.4节的相关内容。
之后是DC LAN的整合,特别是汇聚层和核心层(参见图2-1),现在有很多技术都能完成这一任务,例如,在汇聚层/核心层建立多层交换机的集群,让终端设备感觉就像在访问一台虚拟交换机。更多新兴的L2技术及整合资料请参考2.5节的相关内容。
最后一步是DC LAN和DC SAN的物理访问层之间的整合(参见图2-1)。这里需要实现以太网和光纤通道,传输介质/协议都完全不同的两类网络的融合。我们可以通过整合“无损”10千兆以太网和光纤通道以太网(Fibre Channel over Ethernet,FCoE)得到一个统一的DC光纤。有关服务器I/O整合的更多细节请参考2.6节的相关内容。

相关文章
|
17天前
|
弹性计算 负载均衡 网络协议
阿里云SLB深度解析:从流量分发到架构优化的技术实践
本文深入探讨了阿里云负载均衡服务(SLB)的核心技术与应用场景,从流量分配到架构创新全面解析其价值。SLB不仅是简单的流量分发工具,更是支撑高并发、保障系统稳定性的智能中枢。文章涵盖四层与七层负载均衡原理、弹性伸缩引擎、智能DNS解析等核心技术,并结合电商大促、微服务灰度发布等实战场景提供实施指南。同时,针对性能调优与安全防护,分享连接复用优化、DDoS防御及零信任架构集成的实践经验,助力企业构建面向未来的弹性架构。
160 76
|
20天前
|
机器学习/深度学习 传感器 自然语言处理
基于Transformer架构的时间序列数据去噪技术研究
本文介绍了一种基于Transformer架构的时间序列去噪模型。通过生成合成数据训练,模型在不同噪声条件下展现出强去噪能力。文章详细解析了Transformer的输入嵌入、位置编码、自注意力机制及前馈网络等关键组件,并分析实验结果与注意力权重分布。研究为特定任务的模型优化和专业去噪模型开发奠定了基础。
77 14
基于Transformer架构的时间序列数据去噪技术研究
|
6天前
|
存储 消息中间件 SQL
数据中台架构与技术体系
本文介绍了数据中台的整体架构设计,涵盖数据采集、存储、计算、服务及治理等多个层面。在数据采集层,通过实时与离线方式整合多类型数据源;存储层采用分层策略,包括原始层、清洗层、服务层和归档层,满足不同访问频率需求;计算层提供批处理、流处理、交互式分析和AI计算能力,支持多样化业务场景。数据服务层封装数据为标准化API,实现灵活调用,同时强调数据治理与安全,确保元数据管理、质量监控、权限控制及加密措施到位,助力企业构建高效、合规的数据管理体系。
|
3月前
|
机器学习/深度学习 安全 算法
十大主流联邦学习框架:技术特性、架构分析与对比研究
联邦学习(FL)是保障数据隐私的分布式模型训练关键技术。业界开发了多种开源和商业框架,如TensorFlow Federated、PySyft、NVFlare、FATE、Flower等,支持模型训练、数据安全、通信协议等功能。这些框架在灵活性、易用性、安全性和扩展性方面各有特色,适用于不同应用场景。选择合适的框架需综合考虑开源与商业、数据分区支持、安全性、易用性和技术生态集成等因素。联邦学习已在医疗、金融等领域广泛应用,选择适配具体需求的框架对实现最优模型性能至关重要。
854 79
十大主流联邦学习框架:技术特性、架构分析与对比研究
|
1天前
|
存储 机器学习/深度学习 算法
阿里云X86/ARM/GPU/裸金属/超算等五大服务器架构技术特点、场景适配与选型策略
在我们选购阿里云服务器的时候,云服务器架构有X86计算、ARM计算、GPU/FPGA/ASIC、弹性裸金属服务器、高性能计算可选,有的用户并不清楚他们之间有何区别。本文将深入解析这些架构的特点、优势及适用场景,帮助用户更好地根据实际需求做出选择。
|
12天前
|
人工智能 自然语言处理 API
MCP与A2A协议比较:人工智能系统互联与协作的技术基础架构
本文深入解析了人工智能领域的两项关键基础设施协议:模型上下文协议(MCP)与代理对代理协议(A2A)。MCP由Anthropic开发,专注于标准化AI模型与外部工具和数据源的连接,降低系统集成复杂度;A2A由Google发布,旨在实现不同AI代理间的跨平台协作。两者虽有相似之处,但在设计目标与应用场景上互为补充。文章通过具体示例分析了两种协议的技术差异及适用场景,并探讨了其在企业工作流自动化、医疗信息系统和软件工程中的应用。最后,文章强调了整合MCP与A2A构建协同AI系统架构的重要性,为未来AI技术生态系统的演进提供了方向。
217 4
|
1月前
|
并行计算 PyTorch 算法框架/工具
融合AMD与NVIDIA GPU集群的MLOps:异构计算环境中的分布式训练架构实践
本文探讨了如何通过技术手段混合使用AMD与NVIDIA GPU集群以支持PyTorch分布式训练。面对CUDA与ROCm框架互操作性不足的问题,文章提出利用UCC和UCX等统一通信框架实现高效数据传输,并在异构Kubernetes集群中部署任务。通过解决轻度与强度异构环境下的挑战,如计算能力不平衡、内存容量差异及通信性能优化,文章展示了如何无需重构代码即可充分利用异构硬件资源。尽管存在RDMA验证不足、通信性能次优等局限性,但该方案为最大化GPU资源利用率、降低供应商锁定提供了可行路径。源代码已公开,供读者参考实践。
87 3
融合AMD与NVIDIA GPU集群的MLOps:异构计算环境中的分布式训练架构实践
|
1月前
|
存储 虚拟化 Docker
|
24天前
|
人工智能 Cloud Native 虚拟化
VMware vSphere 7.0 Update 3u 发布 - 数据中心虚拟化和云原生平台
VMware vSphere 7.0 Update 3u 发布 - 数据中心虚拟化和云原生平台
79 0
VMware vSphere 7.0 Update 3u 发布 - 数据中心虚拟化和云原生平台
|
1月前
|
机器学习/深度学习 缓存 自然语言处理
深入解析Tiktokenizer:大语言模型中核心分词技术的原理与架构
Tiktokenizer 是一款现代分词工具,旨在高效、智能地将文本转换为机器可处理的离散单元(token)。它不仅超越了传统的空格分割和正则表达式匹配方法,还结合了上下文感知能力,适应复杂语言结构。Tiktokenizer 的核心特性包括自适应 token 分割、高效编码能力和出色的可扩展性,使其适用于从聊天机器人到大规模文本分析等多种应用场景。通过模块化设计,Tiktokenizer 确保了代码的可重用性和维护性,并在分词精度、处理效率和灵活性方面表现出色。此外,它支持多语言处理、表情符号识别和领域特定文本处理,能够应对各种复杂的文本输入需求。
178 6
深入解析Tiktokenizer:大语言模型中核心分词技术的原理与架构
下一篇
oss创建bucket