大数据 | (一)Hadoop伪分布式安装

本文涉及的产品
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: 大数据 | (一)Hadoop伪分布式安装

大数据原理与应用教材链接:大数据技术原理与应用电子课件-林子雨编著

Hadoop伪分布式安装借鉴文章:Hadoop伪分布式安装-比课本详细

大数据 | (二)SSH连接报错Permission denied:SSH连接报错Permission denied


哈喽,大家好!本期给大家带来的是Hadoop的伪分布式安装。

 

随着大数据时代的到来,“大数据”已经成为互联网信息技术行业的流行词汇。

 

而随着Hadoop的发展,Hadoop也逐渐成为大数据的代名词。


一、Hadoop概述

1.1 Hadoop简介

Hadoop是apache软件基金会旗下的一个开源分布式计算平台,为用户提供系统底层细节透明的分布式基础架构。

Hadoop是基于Java语言开发的,具有很好的跨平台特性,并且开源部署在廉价的计算机集群中。Hadoop的核心是HDFS(Hadoop分布式文件系统)和MapReduce(一种编程模型)


1.2 Hadoop特性


Hadoop是一个能够对大量数据进行分布式处理的软件框架,并且是以一种可靠、高效、可伸缩的方式进行处理的,它具有以下几个方面的特性:

高可靠性。即使一个副本发生鼓掌,其他副本也可以保证正常对外提供服务。

高效性。Hadoop采用分布式存储和分布式处理两大核心技术,能够高效的处理PB级数据

高可扩展性。Hadoop可以扩展到数以千计的计算机节点上。

高容错性。采用数据冗余存储方式,自动保存数据的多个副本。

成本低。Hadoop采用廉价的计算机集群

运行在Linux系统上。Hadoop基于Java语言开发,可以较好的运行在Linux上

支持多种编程语言。Hadoop上的应用程序也可以使用其他语言编写,如C++。



1.3 Hadoop应用现状


国内采用Hadoop的公司主要有百度、淘宝、网易、华为、中国移动等,其中淘宝的计算机集群比较大。


1.4 Hadoop版本


Apache Hadoop版本分为三代、分别时Hadoop1.0、Hadoop2.0、Hadoop3.0。除了免费开源的Apache Hadoop以外,还有一些商业公司推出的Hadoop发行版。2008年,Cloudera成为第一个Hadoop商业化公司,并在2009年推出第一个Hadoop发行版。


二、Hadoop生态系统


经过多年的发展,Hadoop生态系统不断完善和成熟,目前已经包含了多个子项目,除了核心的HDFS和MapReduce以外,Hadoop生态系统还包括ZooKeeper、HBase、Hive、Pig、Mahout、Flume、Sqoop、Ambari等功能组件。


三、Hadoop的安装和使用


3.1 更新apt和安装vim编辑器


首先使用如下命令更新软件包:

sudo apt-get update


efdaf0044fa9473486454a6cb9bd3da5.png

然后安装 Vim 编辑器:

sudo apt-get install vim



a7eff7e13e424948bc777b6d6ab64c19.png


3.2 安装SSH并配置SSH免密登录


使用如下命令安装SSH-Server:

sudo apt-get install openssh-server


之后可以使用如下命令,并输入登录到本机:

ssh localhost

输入如下命令退出登录:

exit

使用命令进入到如下目录:

cd ~/.ssh/


生成公钥和私钥:

ssh-keygen -t rsa

此时 ls ,可以看到文件夹下有这些目录:


d11646e85ea24c309e416323ee9cf71a.png


之后再使用如下命令,就可以直接登录了!

ssh localhost

如果遇到SSH免密登录报错,请参考博主的这篇文章,因为篇幅原因将这个错误独立开来,方便大家查看。SSH连接报错Permission denied


3.3 安装Java环境


如果你之前安装过JDK,可以使用如下命令查看JAVA_HOME(JDK的安装路径),输入Java,javac等检测,并跳过这个步骤。

echo $JAVA_HOME


如果之前没有安装过JDK,请继续往下看。

首先从官网或博主的百度网盘下载JDK8压缩包:

官网下载地址:JDK8Linux压缩包下载地址


002da698fc7b4642b3ea37548b927332.png

百度网盘下载地址:百度网盘JDK8Linux压缩包下载地址

通过 xftp 或 lrzsz 传输到Linux系统上,并解压到当前文件夹:

tar -xzvf jdk-8u202-linux-x64.tar.gz


407c9563ffeb4af297e71d52742c0536.png


配置环境变量:

vim ~/.bashrc

按 i 进入插入模式,在文件开头输入以下内容:

d362f4a96f2f48589cc9dd1a229196ce.png


按下esc,然后输入冒号,wq保存退出。

刷新配置:

source ~/.bashrc

使用如下命令测试是否安装成功:

java -version

如果出现类似下面的结果,就说明安装成功了!

dc9587d3aa5640608821393701e9842f.png

3.4 安装单机Hadoop


下载Hadoop,可以在官网下载,也可以在博主的百度网盘下载,这里选择的Hadoop版本是3.1.3。

Hadoop官网下载:Hadoop官网下载地址

百度网盘下载地址:Hadoop百度网盘下载地址

然后将安装包上传到Linux服务器,并使用如下命令解压:

tar -xzvf hadoop-3.1.3.tar.gz

解压后得到这个Hadoop-3.1.3这个文件夹,但是这里我改文件名了

改文件名命令:

mv hadoop-3.1.3 hadoop

93e912e1381847c78429f3c8286ebb92.png

现在可以运行如下命令,查看Hadoop是否安装成功:

./bin/hadoop version

至此,安装Hadoop完成,下面进行Hadoop的伪分布式安装(重要!)


3.5 Hadoop伪分布式安装


首先修改两个配置文件,分别是core-site.xml文件和hdfs-site.xml文件,进入到hadoop目录下的etc/hadoop目录,执行下面的操作。

修改core-site.xml文件内容如下:


1b94edaf652d454e95bfcdc4f6d6b4a1.png


修改core-site.xml文件内容如下:

edc402aa40a14748a62263bddcf501eb.png

进入到hadoop目录下,之后执行如下命令:


./bin/hdfs namenode -format


执行完之后,如果没有报错类似于Java报错的内容,说明Hadoop伪分布式安装就成功了!

因为这个Hadoop格式化只能执行一次,博主在这之前已经执行过,所以这里不再演示执行结果。  

附上一些操作过程中可能用到的命令:


查看文件权限:

ls -l 文件名

用户操作:

列出所有的用户

cat /ect/passwd


删除用户:

userdel -r 用户名

添加用户:

sudo useradd -m 用户名

切换用户:

su


写在最后:

 

大数据作为一种近几年才兴起的技术,对科学研究、思维方式、社会发展、就业市场和人才培养都有重要的影响。希望大家能从Hadoop安装这个里程,开始自己的大数据之旅吧!共勉!

 


相关实践学习
基于MaxCompute的热门话题分析
Apsara Clouder大数据专项技能认证配套课程:基于MaxCompute的热门话题分析
相关文章
|
7月前
|
存储 分布式计算 Hadoop
从“笨重大象”到“敏捷火花”:Hadoop与Spark的大数据技术进化之路
从“笨重大象”到“敏捷火花”:Hadoop与Spark的大数据技术进化之路
293 79
|
10月前
|
存储 分布式计算 大数据
Flume+Hadoop:打造你的大数据处理流水线
本文介绍了如何使用Apache Flume采集日志数据并上传至Hadoop分布式文件系统(HDFS)。Flume是一个高可用、可靠的分布式系统,适用于大规模日志数据的采集和传输。文章详细描述了Flume的安装、配置及启动过程,并通过具体示例展示了如何将本地日志数据实时传输到HDFS中。同时,还提供了验证步骤,确保数据成功上传。最后,补充说明了使用文件模式作为channel以避免数据丢失的方法。
419 4
|
11月前
|
存储 分布式计算 Hadoop
数据湖技术:Hadoop与Spark在大数据处理中的协同作用
【10月更文挑战第27天】在大数据时代,数据湖技术凭借其灵活性和成本效益成为企业存储和分析大规模异构数据的首选。Hadoop和Spark作为数据湖技术的核心组件,通过HDFS存储数据和Spark进行高效计算,实现了数据处理的优化。本文探讨了Hadoop与Spark的最佳实践,包括数据存储、处理、安全和可视化等方面,展示了它们在实际应用中的协同效应。
458 2
|
11月前
|
存储 分布式计算 Hadoop
数据湖技术:Hadoop与Spark在大数据处理中的协同作用
【10月更文挑战第26天】本文详细探讨了Hadoop与Spark在大数据处理中的协同作用,通过具体案例展示了两者的最佳实践。Hadoop的HDFS和MapReduce负责数据存储和预处理,确保高可靠性和容错性;Spark则凭借其高性能和丰富的API,进行深度分析和机器学习,实现高效的批处理和实时处理。
402 1
|
9天前
|
机器学习/深度学习 传感器 分布式计算
数据才是真救命的:聊聊如何用大数据提升灾难预警的精准度
数据才是真救命的:聊聊如何用大数据提升灾难预警的精准度
74 14
|
2月前
|
机器学习/深度学习 运维 监控
运维不怕事多,就怕没数据——用大数据喂饱你的运维策略
运维不怕事多,就怕没数据——用大数据喂饱你的运维策略
79 0
|
3月前
|
数据采集 分布式计算 DataWorks
ODPS在某公共数据项目上的实践
本项目基于公共数据定义及ODPS与DataWorks技术,构建一体化智能化数据平台,涵盖数据目录、归集、治理、共享与开放六大目标。通过十大子系统实现全流程管理,强化数据安全与流通,提升业务效率与决策能力,助力数字化改革。
95 4
|
3月前
|
分布式计算 DataWorks 数据处理
在数据浪潮中前行:记录一次我与ODPS的实践、思考与展望
本文详细介绍了在 AI 时代背景下,如何利用阿里云 ODPS 平台(尤其是 MaxCompute)进行分布式多模态数据处理的实践过程。内容涵盖技术架构解析、完整操作流程、实际部署步骤以及未来发展方向,同时结合 CSDN 博文深入探讨了多模态数据处理的技术挑战与创新路径,为企业提供高效、低成本的大规模数据处理方案。
204 3
|
3月前
|
SQL 人工智能 分布式计算
ODPS:数据浪潮中的成长与突围
本文讲述了作者在大数据浪潮中,通过引入阿里云ODPS体系(包括MaxCompute、DataWorks、Hologres)解决数据处理瓶颈、实现业务突破与个人成长的故事。从被海量数据困扰到构建“离线+实时”数据架构,ODPS不仅提升了数据处理效率,更推动了技术能力与业务影响力的双重跃迁。
|
10天前
|
传感器 人工智能 监控
数据下田,庄稼不“瞎种”——聊聊大数据如何帮农业提效
数据下田,庄稼不“瞎种”——聊聊大数据如何帮农业提效
75 14

热门文章

最新文章