HBase MapReduce_2 | 学习笔记

简介: 快速学习 HBase MapReduce_2

开发者学堂课程【HBase入门教程HBase MapReduce_2】学习笔记,与课程紧密联系,让用户快速学习知识。

课程地址:https://developer.aliyun.com/learning/course/397/detail/5097


HBase MapReduce_2


一、例子

WCJob.java

public static void main(String[]args) throws Exception{

//默认加载 src 下的配置文件

Configuration conf= new Configuration();

conf.set("hbase.zookeeper.quorum","node1,node2,node3");

Job job=Job.getInstance(conf);

conf.set("mapred.jar","D:\\MR\\wc.jar");

Job job=Job.getInstance(comf);

job.setJarByCIass(WCJob.class);

job.setMapperClass(WCMap.class);

job.setMapOutputKeyClass(Text.class);

job.setMapoutputValueC1a8s(IntWritable.class);

FileInputFormat.addInputPath(jobnew Path ("/wc/ input/wc"));

// hbase reducer

String targetTable="wc";

TableMapReduceUtil.initTableReducerJob(

targetTable,

// reduce 输出的到哪一张表

WCTableReducer.class, // reducer class job);

boolean flag=job.waitForCompletion(true);

if (flag) {

System.out.println("job success ! ");

}

}

环境方式和 jdk 已经配置好了,并且需要修改源码。运行时候报错了,src 下需要加载文件,把配置文件先设置好,

image.png

还是放在 conf 下边,设置完成之后,再次执行,刷新之后,发现程序,还在 run

image.png

WCJob.java

public static void main(String[]args) throws Exception{

//默认加载 src 下的配置文件

Configuration conf= new Configuration();

conf.set("hbase.zookeeper.quorum","node1,node2,node3");

Job job=Job.getInstance(conf);

conf.set("mapred.jar","D:\\MR\\wc.jar");

Job job=Job.getInstance(comf);

job.setJarByCIass(WCJob.class);

job.setMapperClass(WCMap.class);

job.setMapOutputKeyClass(Text.class);

job.setMapoutputValueC1a8s(IntWritable.class);

FileInputFormat.addInputPath(jobnew Path ("/wc/ input/wc"));

// hbase reducer

String targetTable="wc";

TableMapReduceUtil.initTableReducerJob(

targetTable,

// reduce 输出的到哪一张表

WCTableReducer.class, // reducer class job);

boolean flag=job.waitForCompletion(true);

if (flag) {

System.out.println("job success ! ");

}

}

参数需要按照 TableReducer 这个规则来写,迭代器里有 valuesmap 输出之后,迭代器里有1Bytes.toBytes (key.toString())往数据库里插一个数据,通过 bytes 转化成二进制数,把 key 这个单词作为 rokey,每个单词作为一行数据,列族写的是 cfcount 作为总数,定义一个变量位 count。需要创建一张表,这张表里列族名称是 cf

创建一个表

输入:Creat wc‘,’cf’

回车

0 row(s) in 0.4010 S ec onds

=> Hbase: : Table – wc

hbase( main) :005:0> list

TABLE

phone

tbl

wc

3 row(s) in 0.0080 sec onds

=>[ " phone""tbl", "wc" ]

hbase(main) :006 : 0> scan ‘wc’

ROW    COLUMN+CELL

0 row(s) in 0.0190 seconds

hbase(main) 007 ; 0>

相关实践学习
lindorm多模间数据无缝流转
展现了Lindorm多模融合能力——用kafka API写入,无缝流转在各引擎内进行数据存储和计算的实验。
云数据库HBase版使用教程
  相关的阿里云产品:云数据库 HBase 版 面向大数据领域的一站式NoSQL服务,100%兼容开源HBase并深度扩展,支持海量数据下的实时存储、高并发吞吐、轻SQL分析、全文检索、时序时空查询等能力,是风控、推荐、广告、物联网、车联网、Feeds流、数据大屏等场景首选数据库,是为淘宝、支付宝、菜鸟等众多阿里核心业务提供关键支撑的数据库。 了解产品详情: https://cn.aliyun.com/product/hbase   ------------------------------------------------------------------------- 阿里云数据库体验:数据库上云实战 开发者云会免费提供一台带自建MySQL的源数据库 ECS 实例和一台目标数据库 RDS实例。跟着指引,您可以一步步实现将ECS自建数据库迁移到目标数据库RDS。 点击下方链接,领取免费ECS&RDS资源,30分钟完成数据库上云实战!https://developer.aliyun.com/adc/scenario/51eefbd1894e42f6bb9acacadd3f9121?spm=a2c6h.13788135.J_3257954370.9.4ba85f24utseFl
相关文章
|
11月前
|
SQL 分布式计算 并行计算
Hadoop学习笔记(三)之MapReduce
Hadoop学习笔记(三)之MapReduce
|
2天前
|
分布式计算 大数据 分布式数据库
"揭秘HBase MapReduce高效数据处理秘诀:四步实战攻略,让你轻松玩转大数据分析!"
【8月更文挑战第17天】大数据时代,HBase以高性能、可扩展性成为关键的数据存储解决方案。结合MapReduce分布式计算框架,能高效处理HBase中的大规模数据。本文通过实例展示如何配置HBase集群、编写Map和Reduce函数,以及运行MapReduce作业来计算HBase某列的平均值。此过程不仅限于简单的统计分析,还可扩展至更复杂的数据处理任务,为企业提供强有力的大数据技术支持。
|
2天前
|
存储 分布式计算 分布式数据库
《HBase MapReduce之旅:我的学习笔记与心得》——跟随我的步伐,一同探索HBase世界,揭开MapReduce的神秘面纱,分享那些挑战与收获,让你在数据的海洋里畅游无阻!
【8月更文挑战第17天】HBase是Apache顶级项目,作为Bigtable的开源版,它是一个非关系型、分布式数据库,具备高可扩展性和性能。结合HDFS存储和MapReduce计算框架,以及Zookeeper协同服务,HBase支持海量数据高效管理。MapReduce通过将任务拆解并在集群上并行执行,极大提升处理速度。学习HBase MapReduce涉及理解其数据模型、编程模型及应用实践,虽然充满挑战,但收获颇丰,对职业发展大有裨益。
10 0
|
3月前
|
SQL 分布式计算 Hadoop
Hadoop学习笔记(HDP)-Part.16 安装HBase
01 关于HDP 02 核心组件原理 03 资源规划 04 基础环境配置 05 Yum源配置 06 安装OracleJDK 07 安装MySQL 08 部署Ambari集群 09 安装OpenLDAP 10 创建集群 11 安装Kerberos 12 安装HDFS 13 安装Ranger 14 安装YARN+MR 15 安装HIVE 16 安装HBase 17 安装Spark2 18 安装Flink 19 安装Kafka 20 安装Flume
105 1
Hadoop学习笔记(HDP)-Part.16 安装HBase
|
3月前
|
存储 分布式计算 分布式数据库
对给定的数据利用MapReduce编程实现数据的清洗和预处理,编程实现数据存储到HBase数据库,实现数据的增删改查操作接口
对给定的数据利用MapReduce编程实现数据的清洗和预处理,编程实现数据存储到HBase数据库,实现数据的增删改查操作接口
41 0
|
3月前
|
存储 SQL 分布式计算
Hadoop(HDFS+MapReduce+Hive+数仓基础概念)学习笔记(自用)
Hadoop(HDFS+MapReduce+Hive+数仓基础概念)学习笔记(自用)
398 0
|
9月前
|
分布式计算 分布式数据库 Hbase
99 MapReduce操作Hbase
99 MapReduce操作Hbase
70 0
|
存储 SQL 弹性计算
视频-《 E-MapReduce 组件介绍》|学习笔记(四)
快速学习视频-《 E-MapReduce 组件介绍》
93 0
视频-《 E-MapReduce 组件介绍》|学习笔记(四)
|
存储 分布式计算 运维
视频-《E-MapReduce 组件介绍》|学习笔记(一)
快速学习视频-《E-MapReduce组件介绍》
110 0
视频-《E-MapReduce 组件介绍》|学习笔记(一)
|
SQL 弹性计算 分布式计算
视频-《E-MapReduce》|学习笔记(四)
快速学习视频-《E-MapReduce》
184 0
视频-《E-MapReduce》|学习笔记(四)