NetApp调整ONTAP 9,将实现4:1数据压缩比率

简介:

NetApp公司对其Data ONTAP方案进行了重新调整,包括采用FAS阵列操作系统以实现更出色的闪存存储资源利用能力,同时建立所谓数据结构以跨越纯软件与云部署体系。

此次立足于Data ONTAP v8的升级被称为ONTAP 9,NetApp公司表示这是一套经过简化的系统,并宣称其可在10分钟之内完成部署并开始交付数据。

NetApp公司指出,ONTAP 9专门面向混合型工作负载环境,从一级块存储与文件数据到近线及长期数据保留皆可实现。其仍然拥有向上扩展与向外扩展(集群化)功能。

ONTAP 9于NetApp的最新财报电话会议上首度公开。NetApp公司提出了三种可供客户选择的ONTAP 9使用方式:

  • 内部(NetApp型)FAS阵列使用
  • 面向向公有云用例的ONTAP Cloud(支持AWS,未来应该还会支持Azure)
  • ONTAP Select纯软件方案,据称属于成本效益型选项

NetApp调整ONTAP 9,将实现4:1数据压缩比率 

ONTAP 9基础数据结构示意图

ONTAP 9支持15 TB SSD,其数据存储能力相当于现有最高容量——即10 TB——磁盘驱动器的一半。NetApp公司指出,这是首款能够支持如此大容量闪存存储机制的闪存阵列——不过可以肯定,这种优势只是暂时的。

这套新的操作系统还能够实现4:1数据存储比率,相当于能够利用15 TB SSD提供60 TB存储空间。根据我们的计算,一套2U驱动器托架能够容纳24块15 TB SSD,即实现360 TB原始存储容量。按照4:1体积削减比率来看,相当于1440 TB或者1.4 PB可用存储容量。NetApp公司称这意味着单一存储机架即可带来超过1 PB数据存储能力。

这样的计算结果实在令人不可思议; 因为一套容纳20个托架的机架将因此拥有28.8 PB容量,其空间需求远远低于目前的数据中心磁盘存储方案——而且功耗与冷却需求也更低。

其数据体积削减效果由FlashAdvantage 3-4-5项目实现,同时亦使用了新的平面内联数据压缩机制。根据NetApp公司的说法,该机制优于现有压缩与重复数据删除方案。其能够使全闪存FAS阵列拥有“远远优于磁盘驱动器系统的成本效益”——根据我们的理解,这里指的应该是总体拥有成本(简称TCO)以及数据压缩后更低的每TB使用成本。

其中的3-4-5表述代表着:

  • 3倍性能承诺——利用NetApp全闪存存储将性能提升至少3倍(我们认为应该是与磁盘相比较)
  • 4:1容量效率——至少实现4:1的NetApp全闪存存储实际可用容量与原始存储容量间的比值
  • 5种使用方式——提供多种方式帮助客户更轻松地采纳闪存存储机制,包括无风险试用、免费控制器升级项目以及延长质保

ONTAP 9在系统监控能力方面进行了改进,用户能够以集中方式对ONTAP IT环境中的性能、容量与数据安全性进行管理,其中也包括由ONTAP负责实现虚拟化的第三方阵列以及FlexPod系统。

RAID功能也已经升级至三重奇偶校验,NetApp公司表示客户“能够将驱动器故障机率降低至当前水平的百分之一。”ONTAP 9还扩展至其加密与合规保障功能。

我们预计SolidFire方面也将与ONTAP 9一样公布15 TB SSD支持能力并使用类似的数据压缩技术。另外,估计ONTAP 9集群化机制在向外扩展能力上也将优于上代版本。

FAS阵列将必然在未来进行一系列升级,这将使其更为充分地发挥ONTAP 9中的闪存扩展能力。NetApp公司客户可以通过销售代理及渠道销售合作伙伴处获得更多与新版本相关的细节信息。


原文发布时间为:2016年5月30日

本文来自云栖社区合作伙伴至顶网,了解相关信息可以关注至顶网。

相关文章
|
11月前
|
监控 算法 前端开发
减少文件大小优化性能,你的姿势对吗?
优化文件体积需要理想与现实的搭配。这可是一门数字艺术,要找到最佳平衡点。 所以,让我们一同探讨:减少文件体积的姿势
245 0
|
6月前
|
缓存 监控 固态存储
如何优化磁盘性能?
【10月更文挑战第4天】如何优化磁盘性能?
326 4
|
3月前
|
机器学习/深度学习 人工智能
《模型压缩与量化:提升性能与降低成本的关键策略》
在人工智能领域,模型压缩和量化是优化模型大小与性能的关键技术。模型压缩包括剪枝(去除不重要连接)、低秩近似(矩阵分解)和模型融合(合并多个模型),减少冗余并提高效率。量化则通过将参数从连续值转为离散值(如8位、16位),减小存储空间。这些方法能在不降低性能的前提下显著减小模型大小,适用于不同应用场景。未来研究将更注重性能与效率的平衡。
192 10
|
8月前
|
存储 人工智能 算法
70倍极致压缩!大模型的检查点再多也不怕
【8月更文挑战第27天】ExCP是一种新提出的框架,旨在解决大型语言模型(LLM)训练过程中计算和存储方面的挑战。该框架通过高效地压缩训练检查点,在显著减少存储需求的同时保持几乎无损的性能。ExCP首先计算相邻检查点间的残差以提取关键信息,并采用权重-动量联合收缩方法进一步去除冗余参数。此外,它还运用非均匀量化技术进一步压缩检查点存储。在不同规模的模型上测试显示,ExCP能大幅降低存储需求,如对Pythia-410M模型实现了70倍的压缩比,且保持了原始模型的准确性。ExCP的优势包括几乎无损的性能、广泛的适用性和高效的压缩算法。
146 2
|
8月前
|
数据采集 存储 算法
容量推荐引擎:基于吞吐量和利用率的预测缩放
容量推荐引擎:基于吞吐量和利用率的预测缩放
114 4
|
存储 算法 测试技术
存储空间紧张?来看 TDengine TSZ 压缩算法如何显著提升压缩率
本篇文章中,我们将就如何在 TDengine 中开启 TSZ 压缩算法进行详细说明,并会针对 TSZ 压缩算法展开功能测试,为大家验证其在实际业务场景中的更优性能。
421 3
带你读《5G大规模天线增强技术》——2.4.4 路径损耗计算
带你读《5G大规模天线增强技术》——2.4.4 路径损耗计算
|
存储 固态存储 算法
SSD写放大的优化策略要有统一标准了吗?
写放大WAF是NAND-based SSD寿命消耗的关键参数,WAF越大,寿命消耗越快,越接近1,则寿命消耗越慢,也是最理想的情况。 所以,为了让SSD的WAF写放大系数接近1,这些年,各种方案也被提出来。
|
存储 缓存 运维
OIL + VCache如何改善Facebook视频延迟 并减少存储和计算开销?
OIL将存储空间抽象化,并与分布式缓存系统VCache配合,降低了Facebook视频延迟的同时,并减少了存储与计算开销。感谢赵化强、李东明完成本文技术审校。
327 0
OIL + VCache如何改善Facebook视频延迟 并减少存储和计算开销?