Hadoop 简介

简介: Hadoop的发音是 [‘hædu:p]。  Apache的发音是 [æpæʃ]。 Hadoop是Apache基金会的一个开源项目,用于大量数据的分布式处理。核心为HDFS与MapReduce。 1.HDFS HDFS,Hadoop Distributed File System,Hadoop分布式文件系统。 2.map-reduce思想 mapper将大任务化为小任务,分布
Hadoop的发音是 [‘hædu:p]。  Apache的发音是 [æpæʃ]。

Hadoop是Apache基金会的一个开源项目,用于大量数据的分布式处理。核心为HDFS与MapReduce。

1.HDFS

HDFS,Hadoop Distributed File System,Hadoop分布式文件系统。

2.map-reduce思想

mapper将大任务化为小任务,分布式并行计算。中间结果传给reducer,作归约整理,得到最终结果。

3.相关类

3.1配置

void org.apache.hadoop.mapred.JobConf. setOutputKeyClass(Class<?> theClass)
void org.apache.hadoop.mapred.JobConf. setOutputValueClass(Class<?> theClass)
void org.apache.hadoop.mapred.JobConf. setMapperClass(Class<? extends Mapper> theClass)
void org.apache.hadoop.mapred.JobConf. setCombinerClass(Class<? extends Reducer> theClass)
void org.apache.hadoop.mapred.JobConf. setReducerClass(Class<? extends Reducer> theClass)
void org.apache.hadoop.mapred.JobConf. setInputFormat(Class<? extends InputFormat> theClass)
void org.apache.hadoop.mapred.JobConf. setOutputFormat(Class<? extends OutputFormat> theClass)
void org.apache.hadoop.mapred.FileInputFormat. setInputPaths(JobConf conf, Path... inputPaths)
void org.apache.hadoop.mapred.FileInputFormat. setInputPaths(JobConf conf, Path... inputPaths)
RunningJob org.apache.hadoop.mapred.JobClient. runJob(JobConf job)

3.2 mapper

org.apache.hadoop.mapred.Mapper<K1, V1, K2, V2>
接口。key1和value1为Mapper任务输入的键值对。key2和value2为Mapper任务输出的键值对。
void org.apache.hadoop.mapred.Mapper.map(K1 key, V1 value, OutputCollector<K2, V2> output, Reporter reporter) 
mapper接口仅有的方法。

3.3 reducer

org.apache.hadoop.mapred.Reducer<K2, V2, K3, V3>
接口。K2, V2对应mapper的输出。K3, V3对应着reducer的最终输出。
void org.apache.hadoop.mapred.Reducer.reduce(K2 key, Iterator<V2> values, OutputCollector<K3, V3> output, Reporter reporter) 
Reducer接口仅有的方法。

3.4 其他

org.apache.hadoop.mapred. OutputCollector<K, V>
接口。仅有一个方法void collect(K key, V value)。
org.apache.hadoop.mapred. Reporter
接口。用于感知处理进度等。

4.示例代码

在统计词频的例子里,k1是文件名,v1是文件的内容,mapper逐个遍历单词,每遇到一个单词w,就产生一个中间键值对<w, "1">,即<k2,v2>,这表示单词w又找到了一个。mapper将<k2,v2>传给reduce函数,这样reduce函数接受的键就是单词w,值是 一串"1"(最基本的实现是这样,但可以优化),个数等于键为w的键值对的个数,然后将这些“1”累加就得到单词w的出现次数。最后这些单词的出现次数会被写到用户定义的位置,存储在HDFS中。
目录
相关文章
|
4月前
|
消息中间件 分布式计算 大数据
【大数据技术Hadoop+Spark】Flume、Kafka的简介及安装(图文解释 超详细)
【大数据技术Hadoop+Spark】Flume、Kafka的简介及安装(图文解释 超详细)
199 0
|
4月前
|
存储 分布式计算 Hadoop
大数据存储技术(1)—— Hadoop简介及安装配置
大数据存储技术(1)—— Hadoop简介及安装配置
184 0
|
4月前
|
分布式计算 并行计算 Hadoop
【云计算与大数据计算】分布式处理CPU多核、MPI并行计算、Hadoop、Spark的简介(超详细)
【云计算与大数据计算】分布式处理CPU多核、MPI并行计算、Hadoop、Spark的简介(超详细)
254 0
|
11月前
|
SQL 机器学习/深度学习 开发框架
04 Hadoop生态圈以及各组成部分的简介
04 Hadoop生态圈以及各组成部分的简介
42 0
|
存储 SQL 分布式计算
Hadoop生态系统简介及其在大数据处理中的作用
Hadoop生态系统简介及其在大数据处理中的作用
|
分布式计算 算法 Hadoop
Hadoop简介、安装与环境变量配置
Hadoop简介、安装与环境变量配置
329 1
|
SQL 分布式计算 资源调度
Hadoop简介和体系架构
Hadoop简介和体系架构
292 0
|
分布式计算 Java Hadoop
flink hadoop 从0~1分布式计算与大数据项目实战(4)zookeeper内部原理流程简介以及java curator client操作集群注册,读取
flink hadoop 从0~1分布式计算与大数据项目实战(4)zookeeper内部原理流程简介以及java curator client操作集群注册,读取
flink hadoop 从0~1分布式计算与大数据项目实战(4)zookeeper内部原理流程简介以及java curator client操作集群注册,读取
|
存储 SQL 分布式计算
Hadoop核心组成和生态系统简介
Hadoop核心组成和生态系统简介
Hadoop核心组成和生态系统简介
|
存储 分布式计算 监控
Hadoop简介、安装
hadoop平台是一个可靠的、可扩展的、可分布式计算的开源软件。 Apache Hadoop平台是一个框架,允许使用简单的编程模型。该平台被设计成可以从单个服务器扩展到数千台服务器,每台服务器都提供本地计算和存储。该平台也被设计成可检测和处理应用层的故障(即高可用、高容错),高可用服务是基于计算机集群的,并且每一台计算机有可能出错。 #### hadoop应用:
217 0

相关实验场景

更多