1、运行spark:在spark目录下执行 bin/spark-shell,进入spark的shell。
2、wordcount的实现:sc.textFile("/input").flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).collect
1、运行spark:在spark目录下执行 bin/spark-shell,进入spark的shell。
2、wordcount的实现:sc.textFile("/input").flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).collect