首先,我先申明:任何以『做大数据好像挣得多』为名学习数据科学相关的内容都是不谨慎,而且难以有回报的。而且,任何『只要学会一两种工具就能做大数据』的想法也都是盲目的,难有成效的。
从目前我遇到过的面试者和看过的简历来看,凡是没有过大数据项目经验的人,简历写出花来都是扯淡。部署一个集群,装一个Hive,HBase什么的根本就不叫大数据(有的公司甚至部署Hadoop只用HDFS,每天处理5GB数据,这是我面过的一个人告诉我的他的工作经验)。一次处理1个TB以下的数据都不叫大数据(我还在权衡,是不是要提高这个量级)。
大数据是建立在数据科学基础上的,对编程、算法,分布式计算、统计学,线性代数,机器学习,系统构架都有比较高的要求。而且要看英文就像看中文一样(这条很重要,我一般对于不积极主动看英文资料的人没有什么太大的期待)。
我的建议是不要管什么Hadoop,Spark。把基础打牢,只要编程技巧和算法精通,能看英文文献,顺便学点概率统计,随便去哪个公司都能应聘大数据的岗位,等有了项目环境,上手Hadoop或者Spark还不是分分钟的事~
关于大数据的含义前面也有人说了,你想学的是技术层面的话,你所列出的两个编程工具并不存在过多需要纠结的地方,有位高手告诉我,它们都是数据分布运算的一种中间环节和处理过程。
我倒是认为大数据处理和分析中更重要的是和各行业相结合的分析思路和方法,也就是特定场景下的数据分析,这需要你找准自己喜欢并愿意作为事业的方向,比如,选择金融数据分析,健康数据分析等,在这些领域里你的知识有多广,决定了你为未来有多高。
大数据的发展之路还有很多年,你还有时间,加油!