大数据时代:五技术或将改变存储发展

本文涉及的产品
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
简介:

数据存储领域正在发生着剧烈的变化,而且这种变化将是长期的一种趋势。而随着数据存储领域的变化,必然将催生中一些新的技术的产生,必将改变存储领域的发展,那么今天我们就来看一下未来有哪些存储技术会改变未来呢?

1)以太网硬盘

希捷日前宣布了其以太网连接的动能硬盘,该公司宣称以太网硬盘将提供比现在有可能高达四倍存储应用性能。

以太网硬盘的设计思路非常明显,就是要精简数据到硬盘之间的传输环节(即数据无需从服务器到HBA卡再到阵列控制器最后被写到硬盘中,在以太网硬盘的系统中,数据可以直接经网络到硬盘的以太网接口进而存进硬盘中)。

以太网硬盘的优势非常明显,但是同样也面临着非常多的挑战,目前,推出以太网硬盘的厂商有希捷和HGST,

2)氦气填充磁盘

HGST在之前推出了其首款6TB充氦硬盘填充氦气的驱动器,这款产品的好处是,它能够使用更多的旋转盘片驱动器 ,增加产品性能能。而且氦提供更小的阻力,以防止盘片,因为过多摩擦导致更多的热量消耗。

3)高性能相变存储器/ NAND混合固态存储。

相变存储器(PCM)是作为固态硬盘(SSD)替代的使用的标准NAND(闪存)内存。相变存储器(PCM)是一种非易失存储设备,它利用材料的可逆转的相变来存储信息。是利用特殊材料在不同相间的电阻差异进行工作的。

IBM预计,在此基础上的混合PCM技术的存储产品将在2016年。

4)IBM 154TB的磁带

在2014年5月,IBM与富士胶卷已经公布一款154TB LTO磁带库的演示方案,并将在未来十年内正式投放市场。尽管这一容量水平低于索尼的185TB,但凭借着自身强大的磁带合作关系网、IBM完全有机会将索尼一举逐出角斗擂台。

先进的伺服控制技术能够让磁头实现纳米级别的准确定位,从而允许新方案的轨道密度达到现有LTO6格式的28倍。新的信号处理算法使运行状态更为可靠,同时配备极为精密的90纳米磁巨阻磁头(简称GMR)读取机制。

5)遗传存储

哈佛大学研究人员将一本大约有 5.34 万个单词的书籍编码进不到一沙克(亿万分之一克)的DNA微芯片,然后成功利用DNA测序来阅读这本书。这是迄今为止人类使用DNA遗传物质储存数据量最大的一次实验。

DNA分子也是非常致密的存储介质,所以1克的DNA可以是能够保持数据的2000TB。


本文作者:佚名

来源:51CTO

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
相关文章
|
2月前
|
存储 机器学习/深度学习 分布式计算
大数据技术——解锁数据的力量,引领未来趋势
【10月更文挑战第5天】大数据技术——解锁数据的力量,引领未来趋势
|
16天前
|
存储 机器学习/深度学习 SQL
大数据处理与分析技术
大数据处理与分析技术
62 2
|
2月前
|
存储 分布式计算 数据可视化
大数据常用技术与工具
【10月更文挑战第16天】
117 4
|
18天前
|
存储 分布式计算 NoSQL
【赵渝强老师】大数据技术的理论基础
本文介绍了大数据平台的核心思想,包括Google的三篇重要论文:Google文件系统(GFS)、MapReduce分布式计算模型和BigTable大表。这些论文奠定了大数据生态圈的技术基础,进而发展出了Hadoop、Spark和Flink等生态系统。文章详细解释了GFS的架构、MapReduce的计算过程以及BigTable的思想和HBase的实现。
|
2月前
|
存储 数据采集 监控
大数据技术:开启智能决策与创新服务的新纪元
【10月更文挑战第5天】大数据技术:开启智能决策与创新服务的新纪元
|
12天前
|
机器学习/深度学习 存储 大数据
云计算与大数据技术的融合应用
云计算与大数据技术的融合应用
|
19天前
|
SQL 存储 算法
比 SQL 快出数量级的大数据计算技术
SQL 是大数据计算中最常用的工具,但在实际应用中,SQL 经常跑得很慢,浪费大量硬件资源。例如,某银行的反洗钱计算在 11 节点的 Vertica 集群上跑了 1.5 小时,而用 SPL 重写后,单机只需 26 秒。类似地,电商漏斗运算和时空碰撞任务在使用 SPL 后,性能也大幅提升。这是因为 SQL 无法写出低复杂度的算法,而 SPL 提供了更强大的数据类型和基础运算,能够实现高效计算。
|
22天前
|
存储 大数据 定位技术
大数据 数据索引技术
【10月更文挑战第26天】
47 3
|
22天前
|
存储 大数据 OLAP
大数据数据分区技术
【10月更文挑战第26天】
52 2
|
25天前
|
消息中间件 分布式计算 大数据
数据为王:大数据处理与分析技术在企业决策中的力量
【10月更文挑战第29天】在信息爆炸的时代,大数据处理与分析技术为企业提供了前所未有的洞察力和决策支持。本文探讨了大数据技术在企业决策中的重要性和实际应用,包括数据的力量、实时分析、数据驱动的决策以及数据安全与隐私保护。通过这些技术,企业能够从海量数据中提取有价值的信息,预测市场趋势,优化业务流程,从而在竞争中占据优势。
71 2