HP Apollo 4000系统,让大数据更简单

本文涉及的产品
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
简介:

ZDNet至顶网服务器频道 07月09日 新闻消息(文/于泽):有关HP Apollo系统的来龙去脉,在《HP Apollo 2000:让更多人计算得起》一文中已经有过相应的介绍,这里就不再详述了。概括来讲,Apollo系统是惠普重新确立硬件基因后推出的一个面向商业高性能计算细分领域的系列产品,其中第一波产品6000、8000系列于2014年6月发布,今年5月惠普又发布了第二波产品,2000和4000系列。 

如果按照一般的产品命名思路,你肯定认为数字小的是面向低端的,数字大的是面向高端的,但放在Apollo系统身上,这样的经验又不完全适用。比如,Apollo 2000面向的是横向扩展型应用和空间密集型应用,而Apollo 4000面向的则是横向扩展的存储密集型应用,可以说应用方向完全不同。 

在系列文章的上一篇《HP Apollo 2000:让更多人计算得起》中已经对Apollo 2000系列(以下简称“2000系列”)有过详细的解读,本文将就Apollo 4000系列(以下简称“4000系列”)进行阐述,借此让您更全面地了解HP Apollo系统。 

书归正传,本文还是将从产品的架构、管理、应用场景等几个维度出发,全面呈现4000系列方方面面的特性,下面首先还是看看4000系列的产品构架。

Apollo 4000拆解 

与2000系列只有一款机箱不同,4000系列有两种规格的机箱,分别是2U和4U。其中2U的机箱虽然只能插入一个服务器节点(2U全宽),但前端的硬盘组合可以有两种,24盘位(加上内置的盘位,最高可至28个)和48盘位(加上内置的盘位,最高可达50个);而4U的机箱则能提供两种不同组合,一种是插入3个服务器节点(1/3宽4U高的HP ProLiant XL450 Gen9服务器),另一种则是插入一个1个节点(全宽4U高)。 

HP Apollo 4000系统,让大数据更简单

HP Apollo 4000系统,让大数据更简单

Apollo 4200系统一个机箱的两种硬盘组合,前者为24+2/4,后者为48+2,。可能有人会觉得硬盘插槽的数量不够,其实每个都是两组硬盘,就如下图所示,两组硬盘是重叠的。 

HP Apollo 4000系统,让大数据更简单

4200的机箱设计,采用两组硬盘前后重叠的方式,拉出来前面的一组,后面的一组才会露出来。 

HP Apollo 4000系统,让大数据更简单

Apollo 4530系统,最高可插入3个XL450 Gen9服务器节点。

HP Apollo 4000系统,让大数据更简单

Apollo 4510系统 

显然,单就产品线的丰富程度而言,4000系列要比2000系列更胜一筹,当然这也是由于4000系列所面向的应用场景更广泛的缘故。有关应用场景的内容,我们随后再讲,还是接着说4000系列产品层面的内容。 

由于采用不同的架构设计,4000系列每个产品所提供的能力也不尽相同,比如4200支持双插槽英特尔至强E5-2600 v3系列处理器,搭载16个DIMM内存插槽、最高可扩展至512GB内存容量。在这两方面,4510与4200类似,也是支持双插槽处理器、最高可扩展至512GB的内存。而4530因为最多可插入3个XL450 Gen9服务器节点,其高可支持6插槽E5-2600 v3系列处理器,内存容量也是4200的3倍。 

HP Apollo 4000系统,让大数据更简单

XL450 Gen9服务器节点,支持英特尔至强E5-2600 v3系列处理器,搭载16个DIMM内存插槽,最高可扩展至512GB大小的内存容量。

当然,以上所说CPU和内存的区别只是4000系列各个产品之间差异的一部分体现,其他包括前面所提到的硬盘扩展能力、PCIe扩展插槽数量、网卡数量等可能都存在不同程度的差异,这里就不再一一展开了,有兴趣的朋友可至惠普官网查看每款产品的详细信息。 

介绍完产品架构层面的内容,我们再简单讲讲4000系列的系统管理层。这一点其实与2000系列基本相同,也是分为三个层面,第一层基于服务器本身,通过HP iLO管理引擎实现对每台服务器的智能管理,第二层基于机架层面的管理,通过惠普高级电源管理器能够查看并管理共享基础设施的各种异常,第三次是解决方案级的系统管理,通过HP Insight集群管理工具(CMU),能够对整套解决方案实现全生命周期的管理。 

话说有关管理层面的内容,虽然这两次讲的都是Apollo系统,但实际上这种分层管理的方式早已延伸至了所有的惠普服务器产品线,也就是说这种方式其实早已成为了惠普服务器产品的标配,而这显然并不是所有厂商都能做到的。 

Apollo 4000用在哪些地方? 

前文详细分析了Apollo 4000的构成设计,接下来我们看看它主要用在哪里。如果你是一个用户,你觉得这样的产品适用于哪些场景?估计你第一个想到的是大容量的存储场景,毕竟4000系列的一个很重要的属性就是存储扩展性强,话说惠普就是这么想的。 

根据惠普对4000系列的定位,其中4200专用作企业通往横向扩展存储的桥梁,听起来可能与2000系列的定位很相似,只是差两个字,2000是通往横向扩展架构的桥梁,4200是通往横向扩展存储的桥梁,但实际差距还是比较大的。2000系列是一个各方面相对均衡的产品,而4200更多针对的就是存储,你可以理解其为2000系列的定向改良版;4510专为对象存储而构建;4530专为Hadoop/大数据构建。

显然总的来看,三款产品都针对的是存储,只不过面向不同的存储应用场景。其中,4200就是为了给用户提供更高的存储密度、更低的存储成本,而它确实也做到了,在2U的空间内最高可达224TB的存储容量,绝对算的上业界的佼佼者。这一点同样适用于4510,其在42U高度的机柜内,最高支持5.44PB的容量,比4200的存储密度还要高。反观4530则并不主要是为了存储数据,更多是要处理数据,所以它需要更强的数据处理能力,更好的扩展性。 

所以,回过头来结合Apollo 2000及4000系列再看Apollo系统,你会对Apollo系统的整体定位有更加清晰的认识,即面向客户工作负载而优化的产品线。而聚焦在4000系列本身,大数据处理,包括对象存储、云存储、Hadoop、并行文件系统及大数据分析等场景可以说都是它所擅长的领域。

原文发布时间为:2015年07月09日
本文作者:于泽
本文来自云栖社区合作伙伴至顶网,了解相关信息可以关注至顶网。
相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
目录
相关文章
|
1月前
|
传感器 人工智能 大数据
高科技生命体征探测器、情绪感受器以及传感器背后的大数据平台在健康监测、生命体征检测领域的设想与系统构建
本系统由健康传感器、大数据云平台和脑机接口设备组成。传感器内置生命体征感应器、全球无线定位、人脸识别摄像头等,搜集超出现有科学认知的生命体征信息。云平台整合大数据、云计算与AI,处理并传输数据至接收者大脑芯片,实现实时健康监测。脑机接口设备通过先进通讯技术,实现对健康信息的实时感知与反馈,确保身份验证与数据安全。
|
6月前
|
数据采集 存储 数据处理
数据平台问题之知识管理系统的效果如何评估
数据平台问题之知识管理系统的效果如何评估
107 2
|
6月前
|
分布式计算 DataWorks 关系型数据库
MaxCompute 生态系统中的数据集成工具
【8月更文第31天】在大数据时代,数据集成对于构建高效的数据处理流水线至关重要。阿里云的 MaxCompute 是一个用于处理大规模数据集的服务平台,它提供了强大的计算能力和丰富的生态系统工具来帮助用户管理和处理数据。本文将详细介绍如何使用 DataWorks 这样的工具将 MaxCompute 整合到整个数据处理流程中,以便更有效地管理数据生命周期。
202 0
|
6月前
|
存储 SQL 分布式计算
Hadoop生态系统概述:构建大数据处理与分析的基石
【8月更文挑战第25天】Hadoop生态系统为大数据处理和分析提供了强大的基础设施和工具集。通过不断扩展和优化其组件和功能,Hadoop将继续在大数据时代发挥重要作用。
|
6月前
|
分布式计算 搜索推荐 物联网
大数据及AI典型场景实践问题之通过KafKa+OTS+MaxCompute完成物联网系统技术重构如何解决
大数据及AI典型场景实践问题之通过KafKa+OTS+MaxCompute完成物联网系统技术重构如何解决
|
6月前
|
人工智能 分布式计算 架构师
大数据及AI典型场景实践问题之基于MaxCompute构建Noxmobi全球化精准营销系统如何解决
大数据及AI典型场景实践问题之基于MaxCompute构建Noxmobi全球化精准营销系统如何解决
|
6月前
|
存储 监控 安全
大数据架构设计原则:构建高效、可扩展与安全的数据生态系统
【8月更文挑战第23天】大数据架构设计是一个复杂而系统的工程,需要综合考虑业务需求、技术选型、安全合规等多个方面。遵循上述设计原则,可以帮助企业构建出既高效又安全的大数据生态系统,为业务创新和决策支持提供强有力的支撑。随着技术的不断发展和业务需求的不断变化,持续优化和调整大数据架构也将成为一项持续的工作。
|
6月前
|
存储 数据可视化 大数据
基于Python Django的大数据招聘数据分析系统,包括数据大屏和后台管理
本文介绍了一个基于Python Django框架开发的大数据招聘数据分析系统,该系统具备后台管理功能和数据大屏展示,利用大数据技术收集和分析招聘市场趋势,帮助企业和招聘机构提高招聘效率和质量。
202 3
|
7月前
|
存储 分布式计算 数据可视化
ERP系统中的大数据分析与处理:驱动企业智能决策
【7月更文挑战第29天】 ERP系统中的大数据分析与处理:驱动企业智能决策
585 0
|
7月前
|
机器学习/深度学习 分布式计算 大数据
MaxCompute 2.0:开源系统的集成与创新
增强实时处理能力:进一步加强与Flink等实时处理框架的合作。 强化机器学习支持:提供更多内置的机器学习算法和工具。 增强数据治理功能:提供更完善的数据质量和安全治理方案。