esc服务器上装hadoop

简介: hadoop

hadoop是一由Apache基金会所开发分布式系统基础架构。它可使用户在不了解分布式底层细节的情况。开发分布式程序,充分利用集群来进行高速运算和存储。HDFS和MapReduce就是hadoop的框架最核心的设计,HDFS,为海量数据提供了存储,MapReduce则是为海量数据提供了计算。

在零几年,谷歌就发表了著名三篇论文。包括了Mapreduce编程模型、和文件系统GFS还有列式存储BigTable,虽然谷歌没有开源,但是,在其论文中介绍了相关技术。所以说Apache开源了的Hadoop和Hbase中,Hadoop的Mapreduce和HDFS的思想,是来源于谷歌的两篇mapreduce和GFS著名论文,而hbase则是来源于谷歌的另一篇Bigtable论文。
一、实验步骤:
(1)、获取Linux环境
租用高校计划的阿里云服务器

安装完成后就可以使用Putty(在windows下)来远程登录
Putty的下载地址

(2)、安装JDK
1 .jdk安装
① 下载jdk的安装包,并上传/usr/java目录
jdk的下载地址1 到oracle去找
② 一般来说使用wget就可以正常下载了,但是Oracle官网会限制我们的使用
wget --no-check-certificate --no-cookies --header "Cookie: oraclelicense=accept-securebackup-cookie" (相应版本的下载地址) (复制之后,右键直接粘贴)
③解压安装JDK
tar -zxvf jdk-8u40-linux-x64.tar.gz(gz包是linux用的) -C /usr/local/src/
④ 配置jdk环境变量
一.修改profile 文件文本
vim /etc/profile
在文件的末尾添加如下
export JAVA_HOME=/usr/local/src/jdk1.8.0_74(jdk路径)
export PATH=$PATH:$JAVA_HOME/bin
export CLASSPATH.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
注意!!
JAVA_HOME =后的内容是你的 JDK 安装目录
Linux 下用冒号“:”来分隔路径
$PATH / $CLASSPATH / $JAVA_HOME 用以引用原来的环境变量值
export 则是把这三个变量导出,变成全局变量。
按i进入编辑模式,esc退出
:wq退出当前
使用source /etc/profile指令 使配置生效
使用java -version指令 查看是否配置成功
(3)、配置Hadoop
1 下载Hadoop1.2.1
(wget命令)+下载地址
ls 查看当前目录下文件,可以看到hadoop的安装包
可以mv到/opt/目录下
2.解压缩 tar -zxvf hadoop-1.2.1.tar.gz
解压缩后多了一个文件夹,cd命令进入
3配置第一个vim hadoop-env.sh
1.2.1在conf文件夹下
4 然后改三个XML文件
hadoop有很多配置文件,很大部分我们可以使用默认值,slave是集群需要配置的文件。伪分布式有以下几个我们需要配置
vim core-site.xml
打开后是个空配置文件
hadoop.tmp.dir
/hadoop

dfs.name.dir
/hadoop/name

fs.default.name
localhost:9000

直接粘贴会出错,需要修改
修改第二个文件vim hdfs-site.xml。
配置文件的系统数据存放目录

dfs.data.dir
/hadoop/data
(粘贴不完整,可以对照图片,图在文章末尾自行修改)
配置第三个文件
vim mapred-site.xml
配置任务调度器如何去访问

mapred.job.tracker
localhost:9001

接下来需要告诉系统hadoop放在哪
vim /etc/profile(同前面配置jdk,此处不能写成vim etc/…)
如何配置,详情见图片
source /etc/profile

这时可以使用hadoop这个命令了
我们来找到hadoop的执行程序
在执行之前,需要对namenode进行格式化
见图片
start-all.sh 启动
启动正常后输入jps命令,
显示Jps、SecondaryNameNode、NameNode。则启动成功。

二、结果分析
Jdk配置成功,hadoop配置成功,把jdk关联到hadoop后
所以hadoop得以正常启动。
三、存在的问题
Vim 和 Source 命令后面的路径少了/,无法正常进入环境配置和环境变量配置应用。
完整路径是:/etc/profile
环境变量配置不对,搞错jdk路径导致Java_home配置失败,解压的时候应记录路径。
Path配置错误导致hadoop启动后jps命令只显示有jps
正确配置为$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

目录
相关文章
|
1月前
|
分布式计算 Hadoop Shell
Hadoop-35 HBase 集群配置和启动 3节点云服务器 集群效果测试 Shell测试
Hadoop-35 HBase 集群配置和启动 3节点云服务器 集群效果测试 Shell测试
69 4
|
1月前
|
SQL 分布式计算 Hadoop
Hadoop-37 HBase集群 JavaAPI 操作3台云服务器 POM 实现增删改查调用操作 列族信息 扫描全表
Hadoop-37 HBase集群 JavaAPI 操作3台云服务器 POM 实现增删改查调用操作 列族信息 扫描全表
32 3
|
1月前
|
分布式计算 Hadoop Shell
Hadoop-36 HBase 3节点云服务器集群 HBase Shell 增删改查 全程多图详细 列族 row key value filter
Hadoop-36 HBase 3节点云服务器集群 HBase Shell 增删改查 全程多图详细 列族 row key value filter
57 3
|
1月前
|
分布式计算 监控 Hadoop
Hadoop-29 ZooKeeper集群 Watcher机制 工作原理 与 ZK基本命令 测试集群效果 3台公网云服务器
Hadoop-29 ZooKeeper集群 Watcher机制 工作原理 与 ZK基本命令 测试集群效果 3台公网云服务器
39 1
|
1月前
|
分布式计算 Hadoop
Hadoop-27 ZooKeeper集群 集群配置启动 3台云服务器 myid集群 zoo.cfg多节点配置 分布式协调框架 Leader Follower Observer
Hadoop-27 ZooKeeper集群 集群配置启动 3台云服务器 myid集群 zoo.cfg多节点配置 分布式协调框架 Leader Follower Observer
45 1
|
5天前
|
机器学习/深度学习 人工智能 弹性计算
什么是阿里云GPU云服务器?GPU服务器优势、使用和租赁费用整理
阿里云GPU云服务器提供强大的GPU算力,适用于深度学习、科学计算、图形可视化和视频处理等多种场景。作为亚太领先的云服务提供商,阿里云的GPU云服务器具备灵活的资源配置、高安全性和易用性,支持多种计费模式,帮助企业高效应对计算密集型任务。
|
7天前
|
存储 分布式计算 固态存储
阿里云2核16G、4核32G、8核64G配置云服务器租用收费标准与活动价格参考
2核16G、8核64G、4核32G配置的云服务器处理器与内存比为1:8,这种配比的云服务器一般适用于数据分析与挖掘,Hadoop、Spark集群和数据库,缓存等内存密集型场景,因此,多为企业级用户选择。目前2核16G配置按量收费最低收费标准为0.54元/小时,按月租用标准收费标准为260.44元/1个月。4核32G配置的阿里云服务器按量收费标准最低为1.08元/小时,按月租用标准收费标准为520.88元/1个月。8核64G配置的阿里云服务器按量收费标准最低为2.17元/小时,按月租用标准收费标准为1041.77元/1个月。本文介绍这些配置的最新租用收费标准与活动价格情况,以供参考。
|
5天前
|
机器学习/深度学习 人工智能 弹性计算
阿里云GPU服务器全解析_GPU价格收费标准_GPU优势和使用说明
阿里云GPU云服务器提供强大的GPU算力,适用于深度学习、科学计算、图形可视化和视频处理等场景。作为亚太领先的云服务商,阿里云GPU云服务器具备高灵活性、易用性、容灾备份、安全性和成本效益,支持多种实例规格,满足不同业务需求。
|
13天前
|
弹性计算
阿里云2核16G服务器多少钱一年?亲测价格查询1个月和1小时收费标准
阿里云2核16G服务器提供多种ECS实例规格,内存型r8i实例1年6折优惠价为1901元,按月收费334.19元,按小时收费0.696221元。更多规格及详细报价请访问阿里云ECS页面。
51 9
|
10天前
|
监控 Ubuntu Linux
使用VSCode通过SSH远程登录阿里云Linux服务器异常崩溃
通过 VSCode 的 Remote - SSH 插件远程连接阿里云 Ubuntu 22 服务器时,会因高 CPU 使用率导致连接断开。经排查发现,VSCode 连接根目录 ".." 时会频繁调用"rg"(ripgrep)进行文件搜索,导致 CPU 负载过高。解决方法是将连接目录改为"root"(或其他具体的路径),避免不必要的文件检索,从而恢复正常连接。