大数据时代:五技术或将改变存储发展

本文涉及的产品
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介:

数据存储领域正在发生着剧烈的变化,而且这种变化将是长期的一种趋势。而随着数据存储领域的变化,必然将催生中一些新的技术的产生,必将改变存储领域的发展,那么今天我们就来看一下未来有哪些存储技术会改变未来呢?

1)以太网硬盘

希捷日前宣布了其以太网连接的动能硬盘,该公司宣称以太网硬盘将提供比现在有可能高达四倍存储应用性能。

以太网硬盘的设计思路非常明显,就是要精简数据到硬盘之间的传输环节(即数据无需从服务器到HBA卡再到阵列控制器最后被写到硬盘中,在以太网硬盘的系统中,数据可以直接经网络到硬盘的以太网接口进而存进硬盘中)。

以太网硬盘的优势非常明显,但是同样也面临着非常多的挑战,目前,推出以太网硬盘的厂商有希捷和HGST,

2)氦气填充磁盘

HGST在之前推出了其首款6TB充氦硬盘填充氦气的驱动器,这款产品的好处是,它能够使用更多的旋转盘片驱动器 ,增加产品性能能。而且氦提供更小的阻力,以防止盘片,因为过多摩擦导致更多的热量消耗。

3)高性能相变存储器/ NAND混合固态存储。

相变存储器(PCM)是作为固态硬盘(SSD)替代的使用的标准NAND(闪存)内存。相变存储器(PCM)是一种非易失存储设备,它利用材料的可逆转的相变来存储信息。是利用特殊材料在不同相间的电阻差异进行工作的。

IBM预计,在此基础上的混合PCM技术的存储产品将在2016年。

4)IBM 154TB的磁带

在2014年5月,IBM与富士胶卷已经公布一款154TB LTO磁带库的演示方案,并将在未来十年内正式投放市场。尽管这一容量水平低于索尼的185TB,但凭借着自身强大的磁带合作关系网、IBM完全有机会将索尼一举逐出角斗擂台。

先进的伺服控制技术能够让磁头实现纳米级别的准确定位,从而允许新方案的轨道密度达到现有LTO6格式的28倍。新的信号处理算法使运行状态更为可靠,同时配备极为精密的90纳米磁巨阻磁头(简称GMR)读取机制。

5)遗传存储

哈佛大学研究人员将一本大约有 5.34 万个单词的书籍编码进不到一沙克(亿万分之一克)的DNA微芯片,然后成功利用DNA测序来阅读这本书。这是迄今为止人类使用DNA遗传物质储存数据量最大的一次实验。

DNA分子也是非常致密的存储介质,所以1克的DNA可以是能够保持数据的2000TB。


本文作者:佚名

来源:51CTO

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
相关文章
|
3月前
|
存储 机器学习/深度学习 分布式计算
大数据技术——解锁数据的力量,引领未来趋势
【10月更文挑战第5天】大数据技术——解锁数据的力量,引领未来趋势
|
2月前
|
存储 机器学习/深度学习 SQL
大数据处理与分析技术
大数据处理与分析技术
176 2
|
3月前
|
存储 分布式计算 数据可视化
大数据常用技术与工具
【10月更文挑战第16天】
217 4
|
2月前
|
存储 分布式计算 NoSQL
【赵渝强老师】大数据技术的理论基础
本文介绍了大数据平台的核心思想,包括Google的三篇重要论文:Google文件系统(GFS)、MapReduce分布式计算模型和BigTable大表。这些论文奠定了大数据生态圈的技术基础,进而发展出了Hadoop、Spark和Flink等生态系统。文章详细解释了GFS的架构、MapReduce的计算过程以及BigTable的思想和HBase的实现。
146 0
|
3月前
|
存储 数据采集 监控
大数据技术:开启智能决策与创新服务的新纪元
【10月更文挑战第5天】大数据技术:开启智能决策与创新服务的新纪元
|
28天前
|
分布式计算 大数据 数据处理
技术评测:MaxCompute MaxFrame——阿里云自研分布式计算框架的Python编程接口
随着大数据和人工智能技术的发展,数据处理的需求日益增长。阿里云推出的MaxCompute MaxFrame(简称“MaxFrame”)是一个专为Python开发者设计的分布式计算框架,它不仅支持Python编程接口,还能直接利用MaxCompute的云原生大数据计算资源和服务。本文将通过一系列最佳实践测评,探讨MaxFrame在分布式Pandas处理以及大语言模型数据处理场景中的表现,并分析其在实际工作中的应用潜力。
71 2
|
1月前
|
SQL 运维 大数据
轻量级的大数据处理技术
现代大数据应用架构中,数据中心作为核心,连接数据源与应用,承担着数据处理与服务的重要角色。然而,随着数据量的激增,数据中心面临运维复杂、体系封闭及应用间耦合性高等挑战。为缓解这些问题,一种轻量级的解决方案——esProc SPL应运而生。esProc SPL通过集成性、开放性、高性能、数据路由和敏捷性等特性,有效解决了现有架构的不足,实现了灵活高效的数据处理,特别适用于应用端的前置计算,降低了整体成本和复杂度。
|
2月前
|
机器学习/深度学习 存储 大数据
在大数据时代,高维数据处理成为难题,主成分分析(PCA)作为一种有效的数据降维技术,通过线性变换将数据投影到新的坐标系
在大数据时代,高维数据处理成为难题,主成分分析(PCA)作为一种有效的数据降维技术,通过线性变换将数据投影到新的坐标系,保留最大方差信息,实现数据压缩、去噪及可视化。本文详解PCA原理、步骤及其Python实现,探讨其在图像压缩、特征提取等领域的应用,并指出使用时的注意事项,旨在帮助读者掌握这一强大工具。
128 4
|
2月前
|
存储 算法 固态存储
大数据分区优化存储成本
大数据分区优化存储成本
44 4
|
2月前
|
机器学习/深度学习 存储 大数据
云计算与大数据技术的融合应用
云计算与大数据技术的融合应用