【大数据学习篇2】Hadoop集群安装(一)

本文涉及的产品
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
简介: 【大数据学习篇2】Hadoop集群安装

1. 准备3台机器


image.png


2.用户权限

root 超级管理员(系统文件修改)


hd 普通角色用户 (在/home/hd/*   进行所有增删改查)

密码统一设置成:hd 或者 123456

3. 修改静态IP地址

3.1 第一台机器


设置网卡为静态的地址


切换root用户

[hd@bogon Desktop]$ su root

Password:

修改网卡

[root@bogon Desktop]# vim /etc/sysconfig/network-scripts/ifcfg-eth0

DEVICE="eth0"

BOOTPROTO="static"

ONBOOT="yes"

TYPE="Ethernet"

IPADDR=192.168.245.20  

重启网卡

[root@bogon Desktop]# service network restart

查看IP信息

[root@bogon Desktop]# ifconfig

3.2第二台机器

切换root用户

[hd@bogon Desktop]$ su root

Password:

修改网卡

[root@bogon Desktop]# vim /etc/sysconfig/network-scripts/ifcfg-eth0

DEVICE="eth0"

BOOTPROTO="static"    

ONBOOT="yes"

TYPE="Ethernet"

IPADDR=192.168.245.30

删除电脑网卡与系统绑定关系

[root@localhost Desktop]# rm -rf /etc/udev/rules.d/70-persistent-net.rules

重启系统

[root@localhost Desktop]# reboot

查看IP信息

[root@bogon Desktop]# ifconfig

3.3 第三台机器

切换root用户

[hd@bogon Desktop]$ su root

Password:

修改网卡

[root@bogon Desktop]# vim /etc/sysconfig/network-scripts/ifcfg-eth0

DEVICE="eth0"

BOOTPROTO="static"    

ONBOOT="yes"

TYPE="Ethernet"

IPADDR=192.168.245.40

删除电脑网卡与系统绑定关系

[root@localhost Desktop]# rm -rf /etc/udev/rules.d/70-persistent-net.rules

重启系统

[root@localhost Desktop]# reboot

查看IP信息

[root@bogon Desktop]# ifconfig

4. 获取机器的IP地址

[root@localhost ~]# ifconfig

eno16777736: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500

       inet 192.168.20.46  netmask 255.255.255.0  broadcast 192.168.20.46

#如果没有查看IP的命令就安装步骤

[hd@localhost root]$ su root

Password:

[root@localhost ~]# yum install -y net-tools

#也可查看ip addr 命令查看IP地址。

[hd@slave02 ~]$ ip addr

1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000

   link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00

   inet 127.0.0.1/8 scope host lo

      valid_lft forever preferred_lft forever

   inet6 ::1/128 scope host

      valid_lft forever preferred_lft forever

2: ens160: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000

   link/ether 00:0c:29:4f:71:df brd ff:ff:ff:ff:ff:ff

   inet 192.168.20.46/24 brd 192.168.20.255 scope global noprefixroute dynamic ens160

      valid_lft 32521sec preferred_lft 32521sec

   inet6 fe80::f52e:651e:721b:a15a/64 scope link tentative noprefixroute dadfailed

      valid_lft forever preferred_lft forever

   inet6 fe80::5ebb:a198:b90f:fe68/64 scope link tentative noprefixroute dadfailed

      valid_lft forever preferred_lft forever

   inet6 fe80::c180:4b3e:a100:224c/64 scope link tentative noprefixroute dadfailed

      valid_lft forever preferred_lft forever

5. Linux安装Java环境

Linux常用的命令


su 切换用户

pwd 显示当前目录

tar 解压,压宿

cd 进入目录

mv 移动文件,也可以改文件名

source /etc/profile 加载环境变量

vi 文本编辑器,相当于我们的记事本一样,但是使用的都是命令的操作。

5.1 把Linux自带Java环境删除

[hd@localhost ~]$ su root

Password:

[root@localhost hd]# yum remove  -y  java*  

5.2 上传Java包

[root@localhost hd]# su hd

[hd@localhost ~]$ pwd

/home/hd

[hd@localhost ~]$ mkdir apps #上传到此目录

[hd@localhost ~]$ cd apps/

[hd@localhost apps]$

#上传过程

[hd@localhost apps]$ ll

total 178952

-rw-rw-r--. 1 hd hd 183246769 Apr 26  2018 jdk-8u121-linux-x64.tar.gz

5.3 解压java包

#解压

[hd@localhost apps]$ tar -zxvf jdk-8u121-linux-x64.tar.gz

[hd@localhost apps]$ ll

total 178956

drwxr-xr-x. 8 hd hd      4096 Dec 12  2016 jdk1.8.0_121

-rw-rw-r--. 1 hd hd 183246769 Apr 26  2018 jdk-8u121-linux-x64.tar.gz

[hd@localhost apps]$

#目录改名

[hd@localhost apps]$ mv jdk1.8.0_121/ java  

[hd@localhost apps]$ ll

total 178956

drwxr-xr-x. 8 hd hd      4096 Dec 12  2016 java

-rw-rw-r--. 1 hd hd 183246769 Apr 26  2018 jdk-8u121-linux-x64.tar.gz


相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps&nbsp;
目录
相关文章
|
17天前
|
数据采集 数据可视化 大数据
大数据体系知识学习(三):数据清洗_箱线图的概念以及代码实现
这篇文章介绍了如何使用Python中的matplotlib和numpy库来创建箱线图,以检测和处理数据集中的异常值。
27 1
大数据体系知识学习(三):数据清洗_箱线图的概念以及代码实现
|
21天前
|
存储 分布式计算 druid
大数据-152 Apache Druid 集群模式 配置启动【下篇】 超详细!(一)
大数据-152 Apache Druid 集群模式 配置启动【下篇】 超详细!(一)
34 1
大数据-152 Apache Druid 集群模式 配置启动【下篇】 超详细!(一)
|
8天前
|
存储 SQL 分布式计算
大数据学习
【10月更文挑战第15天】
15 1
|
21天前
|
分布式计算 大数据 分布式数据库
大数据-158 Apache Kylin 安装配置详解 集群模式启动(一)
大数据-158 Apache Kylin 安装配置详解 集群模式启动(一)
34 5
|
17天前
|
分布式计算 大数据 Linux
大数据体系知识学习(二):WordCount案例实现及错误总结
这篇文章介绍了如何使用PySpark进行WordCount操作,包括环境配置、代码实现、运行结果和遇到的错误。作者在运行过程中遇到了Py4JJavaError和JAVA_HOME未设置的问题,并通过导入findspark初始化和设置环境变量解决了这些问题。文章还讨论了groupByKey和reduceByKey的区别。
13 1
|
17天前
|
分布式计算 Hadoop 大数据
大数据体系知识学习(一):PySpark和Hadoop环境的搭建与测试
这篇文章是关于大数据体系知识学习的,主要介绍了Apache Spark的基本概念、特点、组件,以及如何安装配置Java、PySpark和Hadoop环境。文章还提供了详细的安装步骤和测试代码,帮助读者搭建和测试大数据环境。
34 1
|
21天前
|
SQL 分布式计算 NoSQL
大数据-170 Elasticsearch 云服务器三节点集群搭建 测试运行
大数据-170 Elasticsearch 云服务器三节点集群搭建 测试运行
33 4
|
21天前
|
资源调度 大数据 分布式数据库
大数据-158 Apache Kylin 安装配置详解 集群模式启动(二)
大数据-158 Apache Kylin 安装配置详解 集群模式启动(二)
30 2
|
21天前
|
消息中间件 分布式计算 druid
大数据-152 Apache Druid 集群模式 配置启动【下篇】 超详细!(二)
大数据-152 Apache Druid 集群模式 配置启动【下篇】 超详细!(二)
38 2
|
21天前
|
存储 消息中间件 druid
大数据-151 Apache Druid 集群模式 配置启动【上篇】 超详细!
大数据-151 Apache Druid 集群模式 配置启动【上篇】 超详细!
66 1