mac osx 系统 brew install hadoop 安装指南

简介:
mac osx 系统 brew  install hadoop 安装指南
 
  1. brew install hadoop 
  2. 配置 core-site.xml:配置hdfs文件地址(记得chmod 对应文件夹,否则无法正常启动hdfs)和namenode的rpc通行端口
  3. 配置mapred-site.xml  中的map reduce通信端口
  4. 配置hdfs-site.xml 中的datanode 副本数。
  5. 格式化hdfs文件系统
  6. 启动Hadoop 和 yarn  namenode  datanode  mapred , 即:运行 start_all.sh
  7. (可选)在hdfs中创建当前用户的地址:  hadoop fs -mkdir -p /user/fan
  8. 开工,web ui 地址默认为:http://localhost:50070。
 
 
遇到的问题:
一, 如在hdfs -put ~/file  fileonhdfs 时, 出现error:WARN org.apache.hadoop.hdfs.server.datanode.DataNode: Invalid directory in dfs.data.dir
          原因是:
  1.   core-site.xml中设置的文件系统已满,需重新设置,并再次-format。
  2.   core-site.xml中设置的hdfs文件系统所在文件夹需要chmod 777 
 
二, 如在hadoop fs -ls . 命令时出现: ls: '.': No such file or directory'
  1. 请执行: 
    hadoop fs -mkdir -p /user/[current login user]
 
 
 
配置文件demo:
 

配置core-site.xml、hdfs-site.xml、mapred-site.xml

* core-site.xml:

 

Xml代码  
  1. <configuration>  
  2.    
  3. <property>  
  4.   <name>hadoop.tmp.dir</name>  
  5.   <value>/usr/local/tmp/hadoop/hadoop-${user.name}</value>  
  6.   <description>A base for other temporary directories.</description>  
  7. </property>  
  8.    
  9. <property>  
  10.         <name>fs.default.name</name>  
  11.         <value>hdfs://localhost:8020</value>  
  12. </property>  
  13.    
  14. </configuration>  

 

 

* hdfs-site.xml:

 

Xml代码  
  1. <configuration>  
  2.    
  3.     <property>  
  4.         <name>dfs.replication</name>  
  5.         <value>1</value>  
  6.     </property>  
  7.    
  8. </configuration>  

 

 

* mapred-site.xml:

 

Xml代码  
  1. <configuration>  
  2.    
  3.     <property>  
  4.         <name>mapred.job.tracker</name>  
  5.         <value>localhost:8021</value>  
  6.     </property>  
  7.    
  8.     <property>  
  9.           
  10. </configuration>  

 

 

其实这些都是基本配置, 网上一大把。配置的值的说明可以参考这3个地址:

 

 写道
http://hadoop.apache.org/common/docs/r0.20.2/core-default.html
http://hadoop.apache.org/common/docs/r0.20.2/hdfs-default.html
http://hadoop.apache.org/common/docs/r0.20.0/mapred-default.html

 

 

2.3)格式化hadoop的文件系统hdfs。 执行命令 hadoop namenode -format 



本文转自fandyst 博客园博客,原文链接:http://www.cnblogs.com/ToDoToTry/    ,如需转载请自行联系原作者

相关文章
|
1月前
|
开发工具 iOS开发 开发者
「Mac畅玩鸿蒙与硬件2」鸿蒙开发环境配置篇2 - 在 Mac 上安装 DevEco Studio
本篇将专注于如何在 Mac 上安装鸿蒙开发工具 DevEco Studio,确保开发环境能够顺利搭建。完成安装后,可以正式开始鸿蒙应用的开发工作。
89 1
「Mac畅玩鸿蒙与硬件2」鸿蒙开发环境配置篇2 - 在 Mac 上安装 DevEco Studio
|
2月前
|
机器学习/深度学习 Python
【10月更文挑战第5天】「Mac上学Python 6」入门篇6 - 安装与使用Anaconda
本篇将详细介绍如何在Mac系统上安装和配置Anaconda,如何创建虚拟环境,并学习如何使用 `pip` 和 `conda` 管理Python包,直到成功运行第一个Python程序。通过本篇,您将学会如何高效地使用Anaconda创建和管理虚拟环境,并使用Python开发。
73 4
【10月更文挑战第5天】「Mac上学Python 6」入门篇6 - 安装与使用Anaconda
|
2月前
|
NoSQL Shell MongoDB
Mac OSX 平台安装 MongoDB
10月更文挑战第11天
21 4
|
2月前
|
应用服务中间件 Linux nginx
Mac os 安装 nginx 教程(success)
这篇文章是关于如何在Mac OS系统上使用Homebrew安装nginx及其依赖,并解决安装过程中可能出现的权限问题。
163 0
Mac os 安装 nginx 教程(success)
|
分布式计算 Ubuntu Hadoop
Hadoop 的安装和使用(基于Linux~Ubuntu的虚拟机)
Hadoop 的安装和使用(基于Linux~Ubuntu的虚拟机)
1040 0
Hadoop 的安装和使用(基于Linux~Ubuntu的虚拟机)
|
2月前
|
分布式计算 Kubernetes Hadoop
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
177 6
|
2月前
|
分布式计算 资源调度 Hadoop
大数据-80 Spark 简要概述 系统架构 部署模式 与Hadoop MapReduce对比
大数据-80 Spark 简要概述 系统架构 部署模式 与Hadoop MapReduce对比
71 2
|
1月前
|
存储 分布式计算 Hadoop
数据湖技术:Hadoop与Spark在大数据处理中的协同作用
【10月更文挑战第27天】在大数据时代,数据湖技术凭借其灵活性和成本效益成为企业存储和分析大规模异构数据的首选。Hadoop和Spark作为数据湖技术的核心组件,通过HDFS存储数据和Spark进行高效计算,实现了数据处理的优化。本文探讨了Hadoop与Spark的最佳实践,包括数据存储、处理、安全和可视化等方面,展示了它们在实际应用中的协同效应。
96 2
|
1月前
|
存储 分布式计算 Hadoop
数据湖技术:Hadoop与Spark在大数据处理中的协同作用
【10月更文挑战第26天】本文详细探讨了Hadoop与Spark在大数据处理中的协同作用,通过具体案例展示了两者的最佳实践。Hadoop的HDFS和MapReduce负责数据存储和预处理,确保高可靠性和容错性;Spark则凭借其高性能和丰富的API,进行深度分析和机器学习,实现高效的批处理和实时处理。
69 1
|
2月前
|
分布式计算 Hadoop 大数据
大数据体系知识学习(一):PySpark和Hadoop环境的搭建与测试
这篇文章是关于大数据体系知识学习的,主要介绍了Apache Spark的基本概念、特点、组件,以及如何安装配置Java、PySpark和Hadoop环境。文章还提供了详细的安装步骤和测试代码,帮助读者搭建和测试大数据环境。
66 1