未来五年内将重塑大数据技术的五种趋势

本文涉及的产品
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介:

请大家不要再纠结于一块磁盘能保存多少数据或者企业到底会不会采用Hadoop。关于大数据的真正问题在于,企业用户将如何使用Hadoop、我们的系统到底能在智能化道路上走多远、我们又该如何保证这一切都处于控制之下。

过去几年当中,大数据技术已经迎来长足发展;从一个乐观积极的流行词汇变成人见人恨的疑难杂症,关注重点也由纯粹的数据规模转向对类型及速度的追求。所谓“大数据”及其相关技术在经历了高度重视、详细甄别以及吐故纳新之后,实际成果很可能与我们的认知存在较大差异。然而时至今日,我们正站在历史的重要转折点上、此前围绕这一话题引发的各类争论将最终带来明确的结论。

如今自动化与智能化已经成为整个世界运转的新方向,这一趋势在简化数据发掘工作的同时、也把智能化特性引入万事万物——从移动应用到交通系统无所不包。大数据的“大”绝不是最终目标,各类新型处理模式的涌现旨在将日益增长的数据交付量转化为智能化成效。所谓分类也不是最终目标,它的意义在于帮助我们实现大规模数据量化的同时、更为深入了解我们身边的世界。

在这样的背景下,我们将借助本届Structure Data大会这一平台钻研更多相关细节——此次会议将于本月十九号在纽约拉开序幕,为期一周。在此期间,世界各地的技术巨头、知名企业以及一部分最为睿智的新兴企业都会派出发言代表与大家分享自己的真知灼见。他们将探讨与大数据相关的各类话题,内容涵盖对抗贩卖人口、Hadoop未来发展方向乃至人工智能前沿技术。

下面我将为大家带来我自己一直在关注的五大发展趋势,也许有助于各位提前把握会议发言人们的探讨话题以及表述方向。如果大家有意参加此次会议,希望我的这篇展望文章能够起到抛砖引玉的作用。

1. Hadoop以坚定步伐发展为真正的平台

Apache Hadoop也许仍然只是一套分布式文件系统、MapReduce也将继续扮演执行框架的角色,但Hadoop可绝不会这样止步不前。归功于YARN等各类通用性发展成果,Hadoop集群如今已经能够针对任意数量的不同工作负载运行任意数量的不同执行框架,同时充分发挥同一套底层存储基础设施所带来的资源优势。举例来说,面向ETL作业的MapReduce集群现在也可以同时充当支撑机器学习的Spark集群、面向流处理的Storm集群以及针对交互式SQL的Tez集群。

从本质上讲,Hadoop已经从一款面向特定任务的实用工具转变为一整套能够支持各类应用程序的真正平台。以Airbnb以及Twitter为代表的早期采用者已经从这种新型用途当中取得竞争优势,Cloudera、Hortonworks以及MapR等Hadoop方案供应商也在自身产品中引入多种新功能并支持主流Hadoop用户在某些情况下所需要的新型框架。Continuuity、Mortar Data以及WibiData等新兴企业通过简化大数据应用程序的方式加快了这一演化的进程,同时也对一部分技术基础进行了开源化处理、从而为更多开发人员提供相关工具。

当然,受到Hadoop向平台转化趋势影响的绝不仅仅是开发人员,众多软件厂商也感受到了这股时代洪流。传统数据仓库、数据库甚至统计软件供应商必须接受这一现实,即Hadoop如今能够帮助他们以更低的成本保存更多数据、同时以多种方式对其内容进行分析。

2.人工智能开始崛起

我们拥有计算设备、我们拥有数据、我们也拥有算法:因此,我们现在已经拥有建立人工智能的技术基础。请别误会,人工智能还不像科幻小说中描述的那样恐怖、也无法真正取代人类的地位,但这项技术最终必将成为现实。由于机器学习方案的不断进步,我们已经能够通过智能手机进行语音指令识别、拥有能够预测用户喜好的媒体服务、可以在数十亿个数据点之间摸清关系脉络的软件以及善于挖掘潜在价值空间的应用程序。

IBM的沃森系统已经近在咫尺,足以为厨师们提供准确的食谱配料清单。

展望未来,针对上述领域的深入学习将帮助我们的人工智能系统变得更加实用也更为强大。在复杂数据集当中,这些模型能够提取并识别出无法通过编程实现的深入分析途径。在无人监管的情况下,深入学习项目已经能够成功把握特定对象的外观、将不同语言的词汇加以映射甚至学会主机游戏的操作规则。几乎就在一夜之间,众多原本无法实现的任务如今似乎都拥有了可行的解决途径——例如能够内容标注使其具备可搜索性,或者以出色的准确性预测用户的词语表意以及接下来要输入的内容。

通过将新型内容应用在新领域当中,这些方案完全有可能为我们带来更为可观的潜在价值。特定癌细胞聚集在一起会表现出怎样的特性?我们能否帮助护士了解原本只有医生能够接触到的信息?哪些原本无法准确衡量的因素组合能够反映出导致青少年自杀的原因?我们需要如何推动自动驾驶汽车与无人飞机进入商业应用领域?诚然,人工智能并不是什么救世主,但它确实为我们展示出光明而且广阔无垠的可能性。

3.为人们带来分析能力

与真正的高难度基础设施与普遍适用的算法相比,将数据分析推向标准化并使其成为易于实现的技能似乎并不算什么了不起的成就——但这一趋势仍然有可能给我们的社会带来重大变革。只需为普通民众提供以新型方式审视身边数据的能力,就相当于为我们的生活开启了一扇通往无限可能的大门。

举例来说,昨天我就利用免费软件为自己的iTunes媒体库建立起一幅网络图形,并把斯诺登在最近一次采访中所使用的几个词汇与国安局局长Keith Alexander的发言进行了一番比较。我并没有用到数据科学或者深入学习技术,但我仍然能够完成较为简单的分析任务、而后对自己发现的有趣数据进行审视。在此之前,我还曾经映射过自己的Twitter粉丝、分析Gigaom网站各位作者发布的头条、甚至对自己的食物摄入量以及锻炼强度进行了汇总。也许促使年轻人们积极以有趣的方式审视并分析自己的数据会有助于激励数据技术专家们进一步把相关方案推向民间——谁说得准呢?

而且随着目前可供普通民众使用的工具愈发先进、我们所收集到的数据量日益拓展(其中包括来自健身器材、联网汽车以及物联网等来源的数据),这种对于自身的量化分析也将变得越来越重要。出于各种目的,我们自身正逐步成为数据输入与算法输出流程的重要组成部分。我们的个人数据将带来方方面面的影响——包括我们看到的广告内容以及收到的招聘信息——而且这一切都将变得顺理成章:每位用户至少能够了解到企业、机构以及政府部门所掌握的小部分信息。

4. 云计算

早在三年前我就说过,云计算与大数据的发展路线必将交接、碰撞,而这一猜测也已经成为现实——只是实际影响范围比我的预计更为广泛。事实上,这场浩大融合带来的最大影响几乎没有反映在Hadoop、商务智能套件或者任何其它分析软件即服务方案的实际使用能力当中。诚然,这些趋势让新兴企业及成熟公司能够更轻松地将新型工作负载迁移到云环境当中;但就我个人来说,云技术变革带来的最大意义在于为原本艰深的计算机科学引入了民主化进程。

我已经强调过,目前一部分技术方案已经以“即服务”形式供大家使用(主要通过API实现),而且这一阵营仍在不断壮大之中。如果大家身为一位开发人员,而且希望学习Hadoop以及Elastic MapReduce的使用方法,那么如今已经有现成方案可供选择。如果大家希望能接入某种服务,例如IBM的沃森云或者MindMeld API,并需要在自己的数据当中借用其它算法所提供的人工智能层,现成方案同样多种多样。在谷歌以及Pinterestto Netflix等众多厂商的支持下,上述大部分技术方案都将被逐步嵌入到我们所使用的服务当中。

如果这些方案真的管用,而且能为开发人员带来真正的智能化能力(这里所说的‘智能化’并非一般意义上的推荐功能,那更像是一种难以回避的瘟疫而非优势),那么即使是平平无奇的任务也足以为消费者带来超出预期的良好效果。相信很多朋友在了解食品采购清单的具体条目之外,还希望搞清这些食材有哪些好处,如果部分食材暂时断货、我们还有哪些后备选项或者在哪里能以更低的价格买到同类货品。在智能手机与其它计算设备所带来的处理能力与数据容量的支持之下,经过精心设计的应用程序完全能够把我们从AT&T信号塔处获取到的信号转化为实际收益。

5. 法律法规

最后,法律制度也将成为大数据发展过程中的潜在影响因素——具体效果如何取决于大家的审视角度。就目前来看,仲裁者、立法者、监管者甚至总统都在努力弄清收集到的这批庞大数据到底意味着什么,并以此为基础勾勒出某种秩序草案。当然,要在这条湍流当中摸着石头过河并非易事,在此过程中充分发挥所有竞争优势更是难上加难。

在管理流程当中,最为棘手的难题就是如何妥善保护消费者的个人隐私;这部分信息拥有巨大挖掘潜力、足以显著改善消费者的实际体验,但同时也会带来侵犯个人隐私的巨大风险。另外,大量宣传资金也开始涌入这一新兴领域。我们希望能以最划算的价格买到食材或者新服饰,也希望能够参与DNA测绘项目并拿到99美元的回报。但我们同时也需要确保自己提供的潜在敏感信息不会被泄露给他人或者出现在不应出现的场合——例如一台公用计算机的滚动广告上。

这一点对于法律制定者以及其他起草法律框架、法规以及判例法的从业人士而言算是一项巨大挑战,他们需要保证消费者在获得正当利益的同时避免遭遇隐私泄露。坦率地讲,我不太相信他们能在不理解大数据技术及其指向的情况下制定出可行的方案,我也不相信大家会对这样产生的结果感到满意。

当然,我们不希望Facebook、谷歌以及Geico等厂商对自己的全部数据进行深入分析,但我们同样不希望重新经历那段网站设计古怪难用、出租车干等不来、工作效率极其低下而且生活毫无个性化可言的悲惨岁月。

原文发布时间为:2014年05月06日
本文来自云栖社区合作伙伴至顶网,了解相关信息可以关注至顶网。
相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
目录
相关文章
|
2月前
|
存储 机器学习/深度学习 分布式计算
大数据技术——解锁数据的力量,引领未来趋势
【10月更文挑战第5天】大数据技术——解锁数据的力量,引领未来趋势
|
1月前
|
存储 机器学习/深度学习 SQL
大数据处理与分析技术
大数据处理与分析技术
102 2
|
2月前
|
存储 分布式计算 数据可视化
大数据常用技术与工具
【10月更文挑战第16天】
163 4
|
1月前
|
存储 分布式计算 NoSQL
【赵渝强老师】大数据技术的理论基础
本文介绍了大数据平台的核心思想,包括Google的三篇重要论文:Google文件系统(GFS)、MapReduce分布式计算模型和BigTable大表。这些论文奠定了大数据生态圈的技术基础,进而发展出了Hadoop、Spark和Flink等生态系统。文章详细解释了GFS的架构、MapReduce的计算过程以及BigTable的思想和HBase的实现。
|
2月前
|
存储 数据采集 监控
大数据技术:开启智能决策与创新服务的新纪元
【10月更文挑战第5天】大数据技术:开启智能决策与创新服务的新纪元
|
12天前
|
SQL 运维 大数据
轻量级的大数据处理技术
现代大数据应用架构中,数据中心作为核心,连接数据源与应用,承担着数据处理与服务的重要角色。然而,随着数据量的激增,数据中心面临运维复杂、体系封闭及应用间耦合性高等挑战。为缓解这些问题,一种轻量级的解决方案——esProc SPL应运而生。esProc SPL通过集成性、开放性、高性能、数据路由和敏捷性等特性,有效解决了现有架构的不足,实现了灵活高效的数据处理,特别适用于应用端的前置计算,降低了整体成本和复杂度。
|
21天前
|
机器学习/深度学习 存储 大数据
在大数据时代,高维数据处理成为难题,主成分分析(PCA)作为一种有效的数据降维技术,通过线性变换将数据投影到新的坐标系
在大数据时代,高维数据处理成为难题,主成分分析(PCA)作为一种有效的数据降维技术,通过线性变换将数据投影到新的坐标系,保留最大方差信息,实现数据压缩、去噪及可视化。本文详解PCA原理、步骤及其Python实现,探讨其在图像压缩、特征提取等领域的应用,并指出使用时的注意事项,旨在帮助读者掌握这一强大工具。
40 4
|
27天前
|
机器学习/深度学习 存储 大数据
云计算与大数据技术的融合应用
云计算与大数据技术的融合应用
|
28天前
|
SQL 存储 大数据
单机顶集群的大数据技术来了
大数据时代,分布式数仓如MPP成为热门技术,但其高昂的成本让人望而却步。对于多数任务,数据量并未达到PB级,单体数据库即可胜任。然而,由于SQL语法的局限性和计算任务的复杂性,分布式解决方案显得更为必要。esProc SPL作为一种开源轻量级计算引擎,通过高效的算法和存储机制,实现了单机性能超越集群的效果,为低成本、高效能的数据处理提供了新选择。
|
1月前
|
SQL 存储 算法
比 SQL 快出数量级的大数据计算技术
SQL 是大数据计算中最常用的工具,但在实际应用中,SQL 经常跑得很慢,浪费大量硬件资源。例如,某银行的反洗钱计算在 11 节点的 Vertica 集群上跑了 1.5 小时,而用 SPL 重写后,单机只需 26 秒。类似地,电商漏斗运算和时空碰撞任务在使用 SPL 后,性能也大幅提升。这是因为 SQL 无法写出低复杂度的算法,而 SPL 提供了更强大的数据类型和基础运算,能够实现高效计算。