大数据实战——WordCount案例实践

简介: 大数据实战——WordCount案例实践

一.过程分析(截图)

1.确定Hadoop处于启动状态

图1:打开hdfs

在终端输入./sbin/start-dfs.sh启动hdfs。

图2:确定Hadoop处于启动状态

通过输入jps确定Hadoop处于启动状态。

2.在/usr/local/filecotent下新建hellodemo文件,并写入以下内容

图3:新建filecotent文件夹

cd进入/usr/local,通过sudo mkdir filecotent新建filecotent文件夹。

图4:新建hellodemo文件

在终端输入sudo vi hellodemo新建hellodemo文件,并写入以下内容:

hello you

Hello me

图5:进入hellodemo文件

图6:写好内容进hellodemo文件

图7:按 ESC 保存,然后 shift+:wq

3.hdfs中创建data目录

图8:hdfs中创建data目录

在终端进入hadoop文件夹后输入bin/hdfs dfs -mkdir data创建data目录。

4.将/usr/local/filecontent/hellodemo 上传到hdfs的data目录中

图9:上传到hdfs的data目录

5.查看data目录下的内容

图10:查看data目录下的内容

在终端输入命令:bin/hdfs dfs -ls data查看data目录下的内容,可以看到我们已经成功将刚刚写的hellodemo文件上传到hdfs的data目录下。

图11:查看hellodemo文件内容

在终端输入命令:bin/hdfs dfs -text data/hellodemo查看hellodemo文件内容。

6.编写WordCountTest.java并运行文件

6.1进入eclipse

图12:启动eclipse

在终端输入启动命令:./eclipse启动eclipse。

6.2默认workspace(这里必须是Hadoop用户下,如果是个人用户名下,就代表前面错误,你不是在Hadoop下完成的操作,会显示没有java路径)

图13:默认workspace

默认workspace点击launch进入下一步。

6.3新建Mapreduce包和class

图14:新建Mapreduce包

图15:给新建class起名WordCountTest

6.4点击libraries,添加jar包,添加完成后点击finish

图16:添加mapreduce的jar包

图17:添加mapreduce的里面lib的jar包

图18:添加yarn的jar包

图19:添加yarn的里面lib的jar包

6.5编写WordCountTest.java

图20:编写WordCountTest.java

图21:注意要把位置写对

图23:运行成功

7.打成jar包并指定主类,在linux中运行

图24:创建myapp

在终端输入命令:mkdir myapp创建myapp目录。

图25:选择“export”

在Eclipse工作界面左侧的“Package Explorer”面板中,在工程名称“WordCount”上点击鼠标右键,在弹出的菜单中选择“Export”。

图26:选择“Runnable JAR file”

在该界面中,选择“Runnable JAR file”,然后,点击“Next>”按钮。

图27:WordCountTest工程打包生成WordCountTest.jar

在该界面中,“Launch configuration”用于设置生成的JAR包被部署启动时运行的主类,需要在下拉列表中选择刚才配置的类“WordCount”。在“Export destination”中需要设置JAR包要输出保存到哪个目录,这里设置为“/usr/local/hadoop/myapp/WordCountTest.jar”。在“Library handling”下面选择“Extract required libraries into generated JAR”。然后,点击“Finish”按钮完成打包。

图28:查看是否打包成功

在进入myapp目录下终端输入命令:ls,可以看到,“/usr/local/hadoop/myapp”目录下已经存在一个WordCount.jar文件。

8.查看输出文件内容

图29:使用hadoop jar命令运行程序

在终端输入命令:./bin/hadoop jar ./myapp/WordCount.jar运行打包的程序。

图30:运行结果

词频统计结果已经被写入了HDFS的“/user/hadoop/out1”目录中。

图31:查看输出文件内容

在终端输入命令:bin/hdfs dfs -cat /out1/*查看输出文件内容,词频统计结果入图31所示,自此词频统计程序顺利运行结束。

二.解题思路

1.MapReduce原理

MapReduce的思想核心是“分而治之”,适用于大量复杂的任务处理场景(大规模数据处理场景)。

Map

Map负责“分”,即把复杂的任务分解为若干个“简单的任务”来并行处理。可以进行拆分的前提是这些小任务可以并行计算,彼此间几乎没有依赖关系。

Reduec

Reduce负责“合”,即对map阶段的结果进行全局汇总。

图32:WordCountTest说明

2. WordCountTest解题思路

要求:在给定的文本文件中统计输出每一个单词出现的总次数。

根据一个完整的MapReduce程序在分布式运行时需要有三类实例进程:

(1)MrAppMaster:负责整个程序的过程调度及状态协调。

(2)MapTask:负责Map阶段的整个数据处理流程。

(3)ReduceTask:负责Reduce阶段的整个数据处理流程。

所以WordCountTest需要有Map类、Reduce类和main主类。

2.1 编写Mapper

(1)自定义的MyMapper要继承自己的父类

(2)Mapper的输入数据是KV对(K:偏移量,类型为LongWritable,V:对应的内容,类型为Text)

(3)Mapper中的业务逻辑写在map()方法中

(4)Mapper的输出数据是KV对的形式

(5)map() 方法对每一个<K,V>调用一次

将传给我们的文本内容转换成String,根据空格将这一行切分成单词,再将单词输出为<单词,1>。

代码:

private static class MyMapper extends Mapper<LongWritable, Text, Text,LongWritable>{
    Text k2 = new Text();
    LongWritable v2 = new LongWritable();
    @Override
    protected void map(LongWritable key, Text value,//三个参数
                       Mapper<LongWritable, Text, Text, LongWritable>.Context context)
            throws IOException, InterruptedException {
        //获取一行
        String line = value.toString();
        //切割
        String[] splited = line.split(" ");//因为split方法属于string字符的方法,首先应该转化为string类型在使用
        //输出
        for (String word : splited) {
            //word表示每一行中每个单词
            //对K2和V2赋值
            k2.set(word);
            v2.set(1L);
            context.write(k2, v2);
        }
    }
}

2.2 编写Reducer阶段

(1)用户自定义的MyReducer要继承自己的父类

(2)Reducer的输入数据类型对应Mapper的输出数据类型,也是KV

也就是说map输出的结果然后放到reduce中处理

(3)Reducer的业务逻辑写在reduce()方法中

(4)对每一组相同k的<k,v>组调用一次reduce()方法

汇总各个key的个数,输出该key的总次数。

代码:

private static class MyReducer extends Reducer<Text, LongWritable, Text, LongWritable> {
    LongWritable v3 = new LongWritable();
    @Override //k2表示单词,v2s表示不同单词出现的次数,需要对v2s进行迭代
    protected void reduce(Text k2, Iterable<LongWritable> v2s,  //三个参数
                          Reducer<Text, LongWritable, Text, LongWritable>.Context context)
            throws IOException, InterruptedException {
        //累加求和
        long sum =0;
        for (LongWritable v2 : v2s) {
            //LongWritable本身是hadoop类型,sum是java类型
            //首先将LongWritable转化为字符串,利用get方法
            sum+=v2.get();
        }
        //输出
        v3.set(sum);
        //将k2,v3写出去
        context.write(k2, v3);
    }
}

2.3 运行分析

图33:运行分析

图34:运行结果


相关实践学习
基于MaxCompute的热门话题分析
Apsara Clouder大数据专项技能认证配套课程:基于MaxCompute的热门话题分析
目录
相关文章
|
5月前
|
存储 数据采集 搜索推荐
Java 大视界 -- Java 大数据在智慧文旅旅游景区游客情感分析与服务改进中的应用实践(226)
本篇文章探讨了 Java 大数据在智慧文旅景区中的创新应用,重点分析了如何通过数据采集、情感分析与可视化等技术,挖掘游客情感需求,进而优化景区服务。文章结合实际案例,展示了 Java 在数据处理与智能推荐等方面的强大能力,为文旅行业的智慧化升级提供了可行路径。
Java 大视界 -- Java 大数据在智慧文旅旅游景区游客情感分析与服务改进中的应用实践(226)
|
5月前
|
数据采集 SQL 搜索推荐
大数据之路:阿里巴巴大数据实践——OneData数据中台体系
OneData是阿里巴巴内部实现数据整合与管理的方法体系与工具,旨在解决指标混乱、数据孤岛等问题。通过规范定义、模型设计与工具平台三层架构,实现数据标准化与高效开发,提升数据质量与应用效率。
大数据之路:阿里巴巴大数据实践——OneData数据中台体系
|
6月前
|
分布式计算 监控 大数据
大数据之路:阿里巴巴大数据实践——离线数据开发
该平台提供一站式大数据开发与治理服务,涵盖数据存储计算、任务调度、质量监控及安全管控。基于MaxCompute实现海量数据处理,结合D2与DataWorks进行任务开发与运维,通过SQLSCAN与DQC保障代码质量与数据准确性。任务调度系统支持定时、周期、手动运行等多种模式,确保高效稳定的数据生产流程。
大数据之路:阿里巴巴大数据实践——离线数据开发
|
5月前
|
存储 SQL 分布式计算
大数据之路:阿里巴巴大数据实践——元数据与计算管理
本内容系统讲解了大数据体系中的元数据管理与计算优化。元数据部分涵盖技术、业务与管理元数据的分类及平台工具,并介绍血缘捕获、智能推荐与冷热分级等技术创新。元数据应用于数据标签、门户管理与建模分析。计算管理方面,深入探讨资源调度失衡、数据倾斜、小文件及长尾任务等问题,提出HBO与CBO优化策略及任务治理方案,全面提升资源利用率与任务执行效率。
|
3月前
|
人工智能 Cloud Native 算法
拔俗云原生 AI 临床大数据平台:赋能医学科研的开发者实践
AI临床大数据科研平台依托阿里云、腾讯云,打通医疗数据孤岛,提供从数据治理到模型落地的全链路支持。通过联邦学习、弹性算力与安全合规技术,实现跨机构协作与高效训练,助力开发者提升科研效率,推动医学AI创新落地。(238字)
|
5月前
|
存储 监控 大数据
大数据之路:阿里巴巴大数据实践——事实表设计
事实表是数据仓库核心,用于记录可度量的业务事件,支持高性能查询与低成本存储。主要包含事务事实表(记录原子事件)、周期快照表(捕获状态)和累积快照表(追踪流程)。设计需遵循粒度统一、事实可加性、一致性等原则,提升扩展性与分析效率。
|
6月前
|
存储 搜索推荐 算法
Java 大视界 -- Java 大数据在智慧文旅旅游线路规划与游客流量均衡调控中的应用实践(196)
本实践案例深入探讨了Java大数据技术在智慧文旅中的创新应用,聚焦旅游线路规划与游客流量调控难题。通过整合多源数据、构建用户画像、开发个性化推荐算法及流量预测模型,实现了旅游线路的精准推荐与流量的科学调控。在某旅游城市的落地实践中,游客满意度显著提升,景区流量分布更加均衡,充分展现了Java大数据技术在推动文旅产业智能化升级中的核心价值与广阔前景。
|
存储 分布式计算 大数据
大数据之路:阿里巴巴大数据实践——大数据领域建模综述
数据建模解决数据冗余、资源浪费、一致性缺失及开发低效等核心问题,通过分层设计提升性能10~100倍,优化存储与计算成本,保障数据质量并提升开发效率。相比关系数据库,数据仓库采用维度建模与列式存储,支持高效分析。阿里巴巴采用Kimball模型与分层架构,实现OLAP场景下的高性能计算与实时离线一体化。
|
6月前
|
SQL 缓存 监控
大数据之路:阿里巴巴大数据实践——实时技术与数据服务
实时技术通过流式架构实现数据的实时采集、处理与存储,支持高并发、低延迟的数据服务。架构涵盖数据分层、多流关联,结合Flink、Kafka等技术实现高效流计算。数据服务提供统一接口,支持SQL查询、数据推送与定时任务,保障数据实时性与可靠性。
|
6月前
|
存储 Java 大数据
Java 大视界 —— 基于 Java 的大数据隐私保护在金融客户信息管理中的实践与挑战(178)
本文探讨了基于 Java 的大数据隐私保护技术在金融客户信息管理中的应用与挑战。随着金融行业数字化转型加速,客户信息的安全性愈发重要。文章详细分析了数据加密、脱敏、访问控制、区块链及联邦学习等关键技术,并结合实际案例展示了其在金融机构中的应用效果,为金融科技从业者提供了宝贵的实践经验与技术参考。