《私有云计算整合、虚拟化和面向服务的基础设施》一第2章未来数据中心的架构及技术

简介: 本节书摘来自华章出版社《私有云计算整合、虚拟化和面向服务的基础设施》一 书中的第2章,作者:(美)Stephen R.Smoot Nam K.Tan,更多章节内容可以访问云栖社区“华章计算机”公众号查看。

第2章未来数据中心的架构及技术

鉴以往事,有资于后人治道。
—格言

在第1章,我们探讨了以下几个抽象层概念:
硬件
服务
商业实现
位置
为了实现私有云计算,我们必须首先确定现有企业基础设施已经包含了这些抽象层(参见图1-1),换句话说,大型企业的数据中心必须进化成私有云。千里之行始于跬步,从云计算角度出发,这关键的一步就是虚拟化。构建私有云基础设施最好的方法是,在继续利用现有企业IT资源的同时,随着时间的发展,逐步将完全虚拟化的未来数据中心(Data Center,DC)迁移。
本章主要讨论数据中心虚拟化,特别是服务器及存储设备的虚拟化,同时也涉及了虚拟服务层访问设计、无回路Layer-2(L2)设计、服务器I/O整合以及数据中心统一光纤。本章将重点探讨通过新兴未来数据中心体系结构及技术,在数据中心构建面向服务的基础设施SOI,实现云基础设施即服务(Infrastructure-as-a-Service,IaaS)。
图2-1是有关云计算各层(子模块)的预览。
服务器模块
应用软件层
虚拟机器层
虚拟接入层
计算层
存储模块
存储阵列
SAN层
SAN扩展
光纤模块

screenshot

接入层
汇聚层及服务汇聚层
核心层
WAN模块
对等层
未来WAN层
第2章内容涵盖了服务器、存储以及光纤模块。有关各层(子模块)功能的更详细介绍,请参见8.4节的内容。
服务器虚拟化有助于将物理服务器整合成虚拟机(Virtual Machine,VM),这些虚拟机必须与某些形式的L2虚拟接入层(参见图2-1)互通。首先需要建立虚拟接入层,更多有关该过程的细节请参见2.3节的相关内容。
实现虚拟接入层后,接下来需要借助SAN(参见图2-1)将存储访问连接到VM。读者也可以借此机会使用各种存储虚拟化技术来整合存储设备。更多存储虚拟化技术的细节信息请参考2.4节的相关内容。
之后是DC LAN的整合,特别是汇聚层和核心层(参见图2-1),现在有很多技术都能完成这一任务,例如,在汇聚层/核心层建立多层交换机的集群,让终端设备感觉就像在访问一台虚拟交换机。更多新兴的L2技术及整合资料请参考2.5节的相关内容。
最后一步是DC LAN和DC SAN的物理访问层之间的整合(参见图2-1)。这里需要实现以太网和光纤通道,传输介质/协议都完全不同的两类网络的融合。我们可以通过整合“无损”10千兆以太网和光纤通道以太网(Fibre Channel over Ethernet,FCoE)得到一个统一的DC光纤。有关服务器I/O整合的更多细节请参考2.6节的相关内容。

相关文章
|
1月前
|
存储 机器学习/深度学习 数据库
阿里云服务器X86/ARM/GPU/裸金属/超算五大架构技术特点、场景适配参考
在云计算技术飞速发展的当下,云计算已经渗透到各个行业,成为企业数字化转型的关键驱动力。选择合适的云服务器架构对于提升业务效率、降低成本至关重要。阿里云提供了多样化的云服务器架构选择,包括X86计算、ARM计算、GPU/FPGA/ASIC、弹性裸金属服务器以及高性能计算等。本文将深入解析这些架构的特点、优势及适用场景,以供大家了解和选择参考。
260 61
|
8天前
|
运维 Kubernetes Cloud Native
智联招聘 × 阿里云 ACK One:云端弹性算力颠覆传统 IDC 架构,打造春招技术新范式
在 2025 年春季招聘季的激战中,智联招聘凭借阿里云 ACK One 注册集群与弹性 ACS 算力的深度融合,成功突破传统 IDC 机房的算力瓶颈,以云上弹性架构支撑千万级用户的高并发访问,实现招聘服务效率与稳定性的双重跃升。
|
9天前
|
数据采集 存储 算法
人才招聘系统开发全解析:从技术底层到商业逻辑的完整架构优雅草卓伊凡|小无|果果|阿才
人才招聘系统开发全解析:从技术底层到商业逻辑的完整架构优雅草卓伊凡|小无|果果|阿才
47 2
人才招聘系统开发全解析:从技术底层到商业逻辑的完整架构优雅草卓伊凡|小无|果果|阿才
|
21天前
|
机器学习/深度学习 人工智能 算法
大型多模态推理模型技术演进综述:从模块化架构到原生推理能力的综合分析
该研究系统梳理了大型多模态推理模型(LMRMs)的技术发展,从早期模块化架构到统一的语言中心框架,提出原生LMRMs(N-LMRMs)的前沿概念。论文划分三个技术演进阶段及一个前瞻性范式,深入探讨关键挑战与评估基准,为构建复杂动态环境中的稳健AI系统提供理论框架。未来方向聚焦全模态泛化、深度推理与智能体行为,推动跨模态融合与自主交互能力的发展。
98 13
大型多模态推理模型技术演进综述:从模块化架构到原生推理能力的综合分析
|
15天前
|
存储 人工智能 自然语言处理
为什么混合专家模型(MoE)如此高效:从架构原理到技术实现全解析
本文深入探讨了混合专家(MoE)架构在大型语言模型中的应用与技术原理。MoE通过稀疏激活机制,在保持模型高效性的同时实现参数规模的大幅扩展,已成为LLM发展的关键趋势。文章分析了MoE的核心组件,包括专家网络与路由机制,并对比了密集与稀疏MoE的特点。同时,详细介绍了Mixtral、Grok、DBRX和DeepSeek等代表性模型的技术特点及创新。MoE不仅解决了传统模型扩展成本高昂的问题,还展现出专业化与适应性强的优势,未来有望推动AI工具更广泛的应用。
51 4
为什么混合专家模型(MoE)如此高效:从架构原理到技术实现全解析
|
25天前
|
网络协议 区块链 KVM
Arista vEOS 4.30.10M - 虚拟化的数据中心和云网络可扩展操作系统
Arista vEOS 4.30.10M - 虚拟化的数据中心和云网络可扩展操作系统
41 2
Arista vEOS 4.30.10M - 虚拟化的数据中心和云网络可扩展操作系统
|
18天前
|
存储 SQL 关系型数据库
Doris架构中包含哪些技术?
Observer节点仅从leader节点进行元数据同步,不参与选举。可以横向扩展以提供元数据的读服务的扩展性。 数据的可靠性由BE保证,BE会对整个数据存储多副本或者是三副本。副本数可根据需求动态调整。
|
23天前
|
人工智能 负载均衡 API
长连接网关技术专题(十二):大模型时代多模型AI网关的架构设计与实现
随着 AI 技术快速发展,业务对 AI 能力的渴求日益增长。当 AI 服务面对处理大规模请求和高并发流量时,AI 网关从中扮演着至关重要的角色。AI 服务通常涉及大量的计算任务和设备资源占用,此时需要一个 AI 网关负责协调这些请求来确保系统的稳定性与高效性。因此,与传统微服务架构类似,我们将相关 API 管理的功能(如流量控制、用户鉴权、配额计费、负载均衡、API 路由等)集中放置在 AI 网关层,可以降低系统整体复杂度并提升可维护性。 本文要分享的是B站在大模型时代基于多模型AI的网关架构设计和实践总结,希望能带给你启发。
91 4
|
7月前
|
存储 安全 虚拟化
虚拟化技术:实现资源高效利用和灵活管理的利器
虚拟化技术作为实现资源高效利用和灵活管理的重要手段,在数字化时代背景下,正逐步改变传统IT架构模式。本文概述了虚拟化技术的概念、原理及其在数据中心管理、云计算平台、企业信息化建设、科研教育及医疗行业的应用,并探讨了其面临的挑战与未来发展趋势。
485 3
|
3月前
|
存储 虚拟化 Docker