Hadoop设备实际上属于有待编排的超级计算机

简介:

IBM公司认为Hadoop及Apache Spark等配置方案在本质上其实属于超级计算机,而秉持着这一思路,蓝色巨人开始调整自家超级计算机管理代码以处理x86集群之上的各类应用。

根据IBM公司软件定义基础设施副总裁Bernie Sprang的解释,分布于集群上的应用需要跨越各计算与存储资源池进行工作负载优化,而提供相关模板不仅能够简化部署过程,同时也能够摆脱对专有硬件的依赖。另外,Sprang强调称,企业客户中存在“集群蠕动”现象,即组织内共同建立计算集群并以共享而非独占方式使用。

蓝色巨人认为,工作负载部署与调度工具能够帮助企业客户有效降低采购及运维的集群数量,且保证数据不会耗尽现有处理资源。

而在新的IBM“Spectrum”工具当中,包含有“Conductor”产品作为资源共享工具,能够对集群化应用进行“模板化”调整。另外“Spectrum LSF”工具则负责工作负载调度。IBM公司还推出了Spectrum Storage,这套原本名为GPFS的文件系统能够支持大规模工作负载。

蓝色巨人将上述工具共同打包在软件定义套件当中,但并非面向主流工作负载。在IBM看来,此套件更适合用于云或者混合云分析方案,因为其能够轻松跨越本地与公有云环境。

Sprang希望将Spectrum套件定义为类似于虚拟机管理程序的方案,因为其同样位于服务器与工作负载之间。但二者的共通之处也仅此而已了:Spectrum主要面向集群化应用,而蓝色巨人希望借此将其高端技术成果引入目前的超大规模工作负载当中。
本文转自d1net(转载)

相关文章
|
分布式计算 安全 Hadoop
|
分布式计算 运维 Hadoop
Hadoop节点网络设备与交换机检查
【4月更文挑战第21天】
175 1
|
7月前
|
存储 分布式计算 Hadoop
从“笨重大象”到“敏捷火花”:Hadoop与Spark的大数据技术进化之路
从“笨重大象”到“敏捷火花”:Hadoop与Spark的大数据技术进化之路
297 79
|
12月前
|
分布式计算 Kubernetes Hadoop
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
448 6
|
12月前
|
分布式计算 资源调度 Hadoop
大数据-80 Spark 简要概述 系统架构 部署模式 与Hadoop MapReduce对比
大数据-80 Spark 简要概述 系统架构 部署模式 与Hadoop MapReduce对比
236 2
|
10月前
|
存储 分布式计算 大数据
Flume+Hadoop:打造你的大数据处理流水线
本文介绍了如何使用Apache Flume采集日志数据并上传至Hadoop分布式文件系统(HDFS)。Flume是一个高可用、可靠的分布式系统,适用于大规模日志数据的采集和传输。文章详细描述了Flume的安装、配置及启动过程,并通过具体示例展示了如何将本地日志数据实时传输到HDFS中。同时,还提供了验证步骤,确保数据成功上传。最后,补充说明了使用文件模式作为channel以避免数据丢失的方法。
422 4
|
11月前
|
存储 分布式计算 Hadoop
数据湖技术:Hadoop与Spark在大数据处理中的协同作用
【10月更文挑战第27天】在大数据时代,数据湖技术凭借其灵活性和成本效益成为企业存储和分析大规模异构数据的首选。Hadoop和Spark作为数据湖技术的核心组件,通过HDFS存储数据和Spark进行高效计算,实现了数据处理的优化。本文探讨了Hadoop与Spark的最佳实践,包括数据存储、处理、安全和可视化等方面,展示了它们在实际应用中的协同效应。
463 2
|
11月前
|
存储 分布式计算 Hadoop
数据湖技术:Hadoop与Spark在大数据处理中的协同作用
【10月更文挑战第26天】本文详细探讨了Hadoop与Spark在大数据处理中的协同作用,通过具体案例展示了两者的最佳实践。Hadoop的HDFS和MapReduce负责数据存储和预处理,确保高可靠性和容错性;Spark则凭借其高性能和丰富的API,进行深度分析和机器学习,实现高效的批处理和实时处理。
404 1

相关实验场景

更多