1、安装配置Java环境
1.1、安装Windows版本的jkd应用程序
当前的系统环境是64位Windows 7,因此下载64位JDK,下载地址:http://download.oracle.com/otn-pub/java/jdk/8u151-b12/e758a0de34e24606bca991d704f6dcbf/jdk-8u151-windows-x64.exe
下载后直接点击安装,默认的安装位置为:C:\Java\jdk
1.2、配置Java环境变量
- 鼠标右键 "我的电脑"-->"属性"
- 点击左边 "高级系统设置"-->"环境变量"
- 增加JAVA_HOME变量,在系统变量点击 "新建"
- 变量:JAVA_HOME
- 变量值:C:\Java\jdk
- 在path上增加java安装路径,找到path点击"编辑"
- 在最后增加:;%JAVA_HOME%\bin;%JAVA_HOME%\lib;%JAVA_HOME%\jre\bin
- 增加CLASSPATH
- 变量:CLASSPATH
- 变量值:%JAVA_HOME%\lib;%JAVA_HOME%\lib\dt.jar;%JAVA_HOME%\lib\tools.jar
java的环境变量设置完成后,在命令提示符输入命令检查:java -version
如果输出java信息说明环境设置完成;
2、安装配置Hadoop
2.1、下载安装Hadoop
下载Hadoop 2.7.3,下载地址:找到2.7.3版本,下载hadoop-2.7.3.tar.gz
将下载的hadoop-2.7.3.tar.gz解压移动到:C:\Usr\local\
2.2、配置Hadoop
2.2.1、配置Hadoop环境变量
- 配置Hadoop环境变量:HADOOP_HOME,方法参照java
- 新建HADOOP_CONF_DIR变量:变量值:%HADOOP_HOME%\etc\hadoop
- 新建YARN_CONF_DIR变量:变量值:%HADOOP_CONF_DIR%
- 配置Hadoop path变量:%HADOOP_HOME%/bin
2.2.2、配置Hadoop配置文件
Hadoop配置文件存放在:C:\Usr\local\hadoop-2.7.3\etc\hadoop
,在C:\Usr\local\hadoop-2.7.3
目录下创建文件夹hdfs/{datanode,namenode}
2.2.2.1、 配置core-site.xml
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
2.2.2.2、 配置hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/C:/Usr\local/hadoop-2.7.3/hdfs/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/C:/Usr/local/hadoop-2.7.3/hdfs/datanode</value>
</property>
</configuration>
2.2.2.3、 配置mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
2.2.2.4、 配置yarn-site.xml
<configuration>
<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property
</configuration>
2.2.2.5、 配置slaves
localhost
2.2.2.6、 配置hadoop-env.cmd
将JAVA_HOME修改为:set JAVA_HOME=C:\PROGRA~1\Java\jdk1.8.0_131
并在后面追加如下设置:
set HADOOP_IDENT_STRING=%USERNAME%
set HADOOP_PREFIX=C:\Usr\local\hadoop-2.7.3
set HADOOP_CONF_DIR=%HADOOP_PREFIX%\etc\hadoop
set YARN_CONF_DIR=%HADOOP_CONF_DIR%
set PATH=%PATH%;%HADOOP_PREFIX%\bin
注:C:\PROGRA~1
用于替代 C:\Program Files
2.3、替换Hadoop windows可执行程序
下载winutils相关,hadoop在windows上运行需要winutils支持和hadoop.dll等文件。下载地址下载对应版本的就可以,例如我用的是2.7.3,可以直接下载2.7.1的就好。然后把winutils.exe和hadoop.dll复制到hadoop的bin目录下;
2.4、启动Hadoop
1.格式化HDFS
打开cmd
cd c:\usr\local\hadoop-2.7.3\bin
hdfs namenode -format
2.启动Hadoop
打开cmd
cd c:\usr\local\hadoop-2.7.3\sbin
start-all.cmd
YARN管理界面:http://localhost:8088
HDFS管理界面:http://localhost:50070
3.简单的HDFS操作
查看信息:hadoop fs -ls hdfs://localhost:9000/
创建目录:
· hadoop fs -lmkdir hdfs://localhost:9000/user/wc·
上传文件:hadoop fs -put C:\Usr\local\hadoop\LICENSE.txt hdfs://localhost:9000/user/wc 本文转自 巴利奇 51CTO博客,原文链接:http://blog.51cto.com/balich/2058194