企业拥抱大数据,Hadoop 和Spark渐受欢迎

简介:

虽然国内大数据相较国外起步较晚,但增长态势却一路上扬,完美诠释了典型的“中国速度”,不仅是企业和政府用户对于大数据的认知在提升,而且在搭建平台和提供数据服务方面,企业用户也开始了更为深入的探索。

来自中国信通院的数据显示:2016年中国大数据市场规模将达到16.8亿元人民币,增速为45%,预计未来3年(2017~2020年),增速将稳步保持在30%以上。

市场风生水起,离不开政府层面的扶持。国家“十三五”规划纲要明确表示:实施国家大数据战略是“十三五”时期的重点。去年国家力挺大数据应用,批复了京津冀等7个国家级大数据综合试验区和超过10个大数据国家工程实验室。

紧接着,今年1月国家印发的《大数据产业发展规划(2016-2020年)》(以下简称《规划》)无疑又为火热的大数据又添了一把柴。按照《规划》预计,在2020年,我国技术先进、应用繁荣、保障有力的大数据产业体系将基本形成,大数据相关产品和服务业务收入将突破1万亿元人民币。

实体产业的落地速度也是快马加鞭,就在本月,坐落于廊坊的京津冀大数据创新应用中心主体工程竣工,并于5月18日正式投入运营。该中心包含体验中心、研发中心、双创中心、应用中心、感知中心5大核心功能区,打造以大数据为核心的特色产业体系。

“利用大数据改造传统动能、培育新动能,对实现创新驱动发展,意义重大、前景广阔”,工业和信息化部副部长陈肇雄表示,一方面引导地方结合自身条件,科学谋划发展重点,在大数据产业特色优势明显的地区建设一批产业集聚区;另一方面,支持地方大数据应用试点,开展系统性探索试验,形成有效经验和模式,加快推广普及。

政府数据开放“三不”写成了难

虽然有国家政策保驾护航,但摆在产业界面前的难题也不少,想要真正实现商业化,形成良性的产业生态道阻且长。诸如在时下高度受关注的大数据共享和开放方面,产业界还未找到行之有效的方法。

中国工程院院士邬贺铨对此表示:缺乏公共平台、共享不通畅、开放总量偏低、结构化程度低,民众参与反馈不准等,这些都是摆在数据共享开放前面的最直接难题。

大数据的价值在于融合和挖掘,作为拥有最大数据源基础的政府一方,本该在数据共享方面起到表率作用,促进数据的融合挖掘,但现实却是政府数据开放呈现三个“不”字。

不敢于、不愿意、不容易,这三个关键词正好反映出目前政务云建设过程中,政府对于数据开放共享的真实态度。

中国信息通信研究院院长刘多表示,由于国家层面目前在数据安全方面还缺乏具有指导性的规定和细则,这就导致政府在共享数据方面不敢于也不愿意迈出大步;另一方面,政府IT系统多为封闭的“烟囱式”IT构建,即便想要数据共享,也需要接口的标准化和统一的顶层设计。

“开放共享对于政务透明、全社会信用体系建设和创新都非常重要,我们需要共同努力!”刘多如是说。

产业动起来,Hadoop 和Spark渐受欢迎

监管未细,但产业界早已行动。来自中国信通院一份国内1465 用户的大数据问卷调查显示:近六成企业已成立数据分析相关部门,27.3% 的企业计划成立数据部门。更重要的是,绝大部分企业均已意识到数据分析对企业发展的重要性,在用户看来,大数据能够为企业带来最直观的效果就是:智能决策和提升运营效率。

更有趣的是,市场对于搭建大数据平台的方式也在发生微妙的变化,相较于前两年直接购买集成一体机的方式,在2016年,倾向于本地自建大数据平台(48.6%)和采购云服务商的大数据服务(33.1%)的比例占到了总体受访者的80%。

这似乎已经传递出一个非常明确的趋势:企业拥抱大数据,更青睐以开源平台来构建大数据,这也就解释了业界为何如此看重Hadoop 和Spark这两项大数据平台技术架构的原因。

不过开源之路并不像看上去那么美好,除了自身具备一定的技术实力之外,如何融入从国外舶来的开源社区文化,兼顾数据服务的安全性、稳定性和可扩展性都将成为企业用户即将面对的重要课题。

本文转自d1net(转载)

相关实践学习
简单用户画像分析
本场景主要介绍基于海量日志数据进行简单用户画像分析为背景,如何通过使用DataWorks完成数据采集 、加工数据、配置数据质量监控和数据可视化展现等任务。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
相关文章
|
29天前
|
分布式计算 Hadoop 大数据
大数据技术与Python:结合Spark和Hadoop进行分布式计算
【4月更文挑战第12天】本文介绍了大数据技术及其4V特性,阐述了Hadoop和Spark在大数据处理中的作用。Hadoop提供分布式文件系统和MapReduce,Spark则为内存计算提供快速处理能力。通过Python结合Spark和Hadoop,可在分布式环境中进行数据处理和分析。文章详细讲解了如何配置Python环境、安装Spark和Hadoop,以及使用Python编写和提交代码到集群进行计算。掌握这些技能有助于应对大数据挑战。
|
3天前
|
分布式计算 资源调度 Hadoop
java与大数据:Hadoop与MapReduce
java与大数据:Hadoop与MapReduce
22 0
|
12天前
|
分布式计算 DataWorks 大数据
MaxCompute操作报错合集之大数据计算的MaxCompute Spark引擎无法读取到表,是什么原因
MaxCompute是阿里云提供的大规模离线数据处理服务,用于大数据分析、挖掘和报表生成等场景。在使用MaxCompute进行数据处理时,可能会遇到各种操作报错。以下是一些常见的MaxCompute操作报错及其可能的原因与解决措施的合集。
MaxCompute操作报错合集之大数据计算的MaxCompute Spark引擎无法读取到表,是什么原因
|
12天前
|
SQL 分布式计算 大数据
MaxCompute操作报错合集之spark3.1.1通过resource目录下的conf文件配置,报错如何解决
MaxCompute是阿里云提供的大规模离线数据处理服务,用于大数据分析、挖掘和报表生成等场景。在使用MaxCompute进行数据处理时,可能会遇到各种操作报错。以下是一些常见的MaxCompute操作报错及其可能的原因与解决措施的合集。
|
13天前
|
存储 分布式计算 Hadoop
【专栏】Hadoop,开源大数据处理框架:驭服数据洪流的利器
【4月更文挑战第28天】Hadoop,开源大数据处理框架,由Hadoop Common、HDFS、YARN和MapReduce组成,提供大规模数据存储和并行处理。其优势在于可扩展性、容错性、高性能、灵活性及社区支持。然而,数据安全、处理速度、系统复杂性和技能短缺是挑战。通过加强安全措施、结合Spark、自动化工具和培训,Hadoop在应对大数据问题中保持关键地位。
|
15天前
|
新零售 分布式计算 数据可视化
数据分享|基于Python、Hadoop零售交易数据的Spark数据处理与Echarts可视化分析
数据分享|基于Python、Hadoop零售交易数据的Spark数据处理与Echarts可视化分析
|
17天前
|
分布式计算 Hadoop 大数据
[大数据] mac 史上最简单 hadoop 安装过程
[大数据] mac 史上最简单 hadoop 安装过程
|
17天前
|
分布式计算 大数据 数据处理
[AIGC大数据基础] Spark 入门
[AIGC大数据基础] Spark 入门
141 0
|
分布式计算 Hadoop Spark
《Spark与Hadoop大数据分析》——3.7 小结
本节书摘来自华章计算机《Spark与Hadoop大数据分析》一书中的第3章,第3.7节,作者 [美]文卡特·安卡姆(Venkat Ankam),译 吴今朝,更多章节内容可以访问云栖社区“华章计算机”公众号查看。
1086 0

热门文章

最新文章