【大数据实训】基于Hadoop的2019年11月至2020年2月宁波天气数据分析(五)

本文涉及的产品
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云防火墙,500元 1000GB
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: 【大数据实训】基于Hadoop的2019年11月至2020年2月宁波天气数据分析(五)

基于Hadoop的2019年11月至2020年2月宁波天气数据分析

2019—2020 学年第二学期《分布式系统原理与技术》期末大作业评分表
评价内容 评价标准 占比 得分
课程期末作业 文档内容规范 文章结构严谨,逻辑性强,表达层次清晰,语言准确,文字流畅,内容翔实。 30
分布式集群搭建 Hadoop 集群搭建成功,可在浏览器查看其启动情况。MAVEN、IDEA 等软件安装与配置合理。 20
分布式计算 生成 Mapreduce 的 Jar 包,可在虚拟机的主节点或本地计算机上进行分布式计算。 20
大数据采集 使用数据爬虫采集的数据至少 100 条 10
运行的流畅性 整个分布式计算过程,运行时没有产生什么逻辑错误或系统错误。 10
格式 符合各项格式规范要求,且达到规定篇幅要求。 10
总分
教师评语 教师签名:
2020 年 6 月 日

1 分布式集群搭建

1.1Hadoop集群搭建与配置

1.1.1Hadoop简介

Hadoop 是一个由 Apache 基金会所开发的分布式系统基础架构。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。它的目的是从单一的服务器扩展到成千上万的机器,将集群部署在多台机器,每个机器提供本地计算和存储。Hadoop 框架最核心的设计是 HDFS 和 MapReduce。

Hadoop 为在多个节点集群上处理数据提供了有效的框架,可以在多台机器上运行,提供数据的并行处理。Hadoop 可以处理海量数据量;可以处理繁多的数据类型,包括文本、网页、语音、图片、视频等;可以进行数据分析,提取有价值信息;处理速度快、时效高。Hadoop 有开源、分布式处理、可靠性和高容错性、可扩展性、费用低、数据本地化、传统数据处理系统等特点。

Hadoop 的核心组件有:Common、HDFS、MapReduce 等。其中,HDFS 为分布式文件系统,是 Hadoop 的主要存储系统,由主节点 Namenode 和从节点 Datanode 组成;MapReduce 是一种编程模型,主要用于海量数据的

图 1.1 Hadoop 生态系统

1.1.2Hadoop集群搭建

(1) 准备工作

  1. 安装包

⚫ CentOS-6.10

⚫ Java

⚫ Hadoop

图 1.2 CentOS-6.10

图 1.3 Java 安装包

图 1.4 Hadoop 安装包

  1. 软件

Vmware 15

图 1.5 Vmware 15 界面

Vmware 用于虚拟机的安装和运行等操作。

⚫ Xshell

图 1.6 Xshell 界面

Xshell 是 Windows 的 SSH 客户端,可以跟虚拟机进行远程连接。

WinSCP

图 1.7 WinSCP 界面

WinSCP 用于传输 Windows 和虚拟机上的文件。

⚫ Notepad++

图 1.8 Notepad++界面Notepad++用于修改虚拟中的文件。

(2) 新建虚拟机

在已经安装好的 Vmware 中新建虚拟机,安装 CentOS-6.10。

图 1.9 新建虚拟机

图 1.10 虚拟机安装完成界面

(3) 建立主节点

  1. 以 root 用户登录 namenode,更改 namenode 的主机名

图 1.11 更改 namenode 的主机名

  1. 关闭防火墙

图 1.12 关闭防火墙

  1. 关闭主机防火墙

图 1.13 关闭主机防火墙

  1. 查看主机和虚拟机的 IP 地址

图 1.14 虚拟机 IP 地址

图 1.15 VMnet8 在主机上产生的 IP 地址

  1. 测试主机和虚拟机网络的连通性

图 1.16 主机连通虚拟网

图 1.17 虚拟网连通主机

  1. SSH 连接

打开 Xshell,新建 Session,选择 SSH 协议。连接成功后,可在主机中控制虚拟机。

图 1.18 SSH 连接

  1. SFTP 连接

打开 WinSCP,文件协议选择 SFTP。连接成功后,可以实现主机与虚拟机的文件互传。

图 1.19 WinSCP 连接

图 1.20 传输 Hadoop 和 JDK 安装包

(4) 建立从节点

新建虚拟机 datanode1,重复建立主节点的 1-5 步后,关闭虚拟机。对 datanode1 进行完整克隆,并将克隆虚拟机名称改为 namenode2。

图 1.21 克隆虚拟机

完成克隆后,使用 Xshell 建立两台新建虚拟机的连接,并建立免密 SSH 互访。

图 1.22 namenode 测试连通性

图 1.23 datanode1 测试连通性

图 1.24 datanode2 测试连通性

(5) 安装 Hadoop

  1. 安装 JDK

将之前通过 WinSCP 传入 namenode 的 JDK 压缩包解压到 opt 目录中,并修改文件名为 jdk。

图 1.25 JDK 压缩包解压至 opt 文件夹中

配置 JDK 环境,编辑/etc/profile 文件,并加载使其立即生效。

图 1.26 配置 JDK 环境变量

图 1.27 测试 JDK 是否正常工作

  1. 安装 Hadoop

⚫ 在 hadoop-env.sh 中配置 java 环境

图 1.28 hadoop-env.sh 中配置 java 环境

⚫ 在 yarn-env.sh 中配置 java 环境

图 1.29 yarn-env.sh 中配置 java 环境

⚫ 配置 slave 节点

图 1.30 slave 节点

⚫ 使用 Notepad++软件配置 core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml

文件

图 1.31 namenode 文件修改

(6) 建立分布式集群

  1. 从节点上安装 JDK 和 Hadoop
  2. 启动 Hadoop

输入start-all.sh 命令启动hadoop 的各个监护进程;输入stop-all.sh 可以关闭hadoop 的各个监护进程。输入 jps 命令查看 hadoop 是否配置和启动成功。

图 1.32 查看 namenode、datanode1、datanode2 的 hadoop 配置和启动状态

  1. 登录查看

图 1.33 hadoop 启动成功界面可以用本地浏览器打开 50070,则代表 hadoop 安装成功。

1.2Maven安装与配置

1.2.1Maven简介

Maven 是用于项目管理和构建的工具,它可以对项目进行快速简单的构建。因为使用IDEA 或 Eclips 对项目进行构建,步骤比较零散,不好操作。为了让项目管理和构建更加简便,本文使用 Maven 对项目进行管理和构建。在 Maven 中,Ant 是专门的项目构建工具,配置需要明确源码包、class 文件和资源文件的位置。

1.2.2Maven工程的创建

(1) 下载 Maven(本文选择 Maven-3.3.3 版本)

图 1.34 Maven 目录

(2) 配置 Maven 的环境变量

图 1.35 Maven 环境变量的配置

(3) 启动并查看 Maven

图 1.36 cmd 中查看 Maven 是否安装成功

(4) 下载 IntelliJ IDEA,并在 IDEA 中安装 Maven

图 1.34 IntelliJ IDEA 界面

  1. 在“设置”的 Maven 目录下设置 Maven home 的路径

图 1.35 设置 maven home 的路径

  1. 配置 Settings.xml 文件的本地仓库和镜像

图 1.36 Settings.xml 镜像配置

(5) 新建 Maven 工程

  1. 新建 Maven 项目

图 1.37 新建 Maven 项目

  1. 导入第三方库

图 1.38 在 pom.xml 文件中导入第三方库

  1. 自动下载 jar 包

jar 包下载成功后,Maven 工程即可使用。

1.3windows搭建hadoop开发环境

1.3.1在windows上搭建hadoop开发环境的原因

上文中已经创建好了 Maven 工程,本文在使用分布式计算框架 MapReduce 编程时,需要将 Java 工程打包,提交到 Yarn 上才可以在 hadoop 虚拟环境中运行。当 MapReduce 修改之后,Java 工程需要构建、打包,再次提交到 Yarn 上运行,步骤比较繁琐。

图 1.39 MapReduce 作业运行机制

因此为了简化这个过程,需要在 windows 上搭建 hadoop 开发环境,使程序可以直接在本地运行。

1.3.2windows搭建hadoop开发环境

(1) 下载 Hadoop

图 1.40 windows 上下载 hadoop-2.7.1 压缩包并解压

(2) 下载 winutils

图 1.41 windows 上下载 winutils 对应的 hadoop-2.7.1 版本

将 winutils 中的 winutils.exe 和 hadoop.dll 复制到 hadoop-2.7.1\bin 目录下:

图 1.42 添加文件

(3) 配置环境变量

在 windows 中配置 HADOOP_HOME,完成 hadoop 开发环境在 windows 上的搭建。

图 1.43 Hadoop 环境变量配置

(4) 查看 Hadoop 是否安装成功

图 1.44 Hadoop 开发环境安装成功

2 2019 年 11 月至 2020 年 2 月宁波天气数据准备

2.1数据选取

由于自 2020 年 11 月以来,宁波气温时高时低。因此本文选取 2019 年 11 月-2020 年 2 月

的天气数据,进行统计分析,再与 2020 年 11 月-2021 年 1 月的天气数据进行比较,得出最终的数据分析。

2.2网页结构分析

本文使用的数据来自天气+(http://lishi.tianqi.com),其中宁波 2019 年 11 月-2020 年 2 月的天气链接如下表所示:

表 2.1 宁波 2019 年 11 月-2020 年 2 月天气数据链接

为准确爬取天气网上宁波 2019 年 11 月-2020 年 2 月的天气数据,需要先对网页结构进行

分析。本文先打开 2019 年 11 月的天气页面,如下图所示:

图 2.1 2019 年 11 月宁波天气页面

根据网页,本文需要爬取的数据为以“日期、最高气温、最低气温、天气、风向”为表头的整张表。为的到这一部分的网页结构,本文通过浏览器打开“开发者调试工具(F12)”,通过 Elements 获取该表的结构如下所示:

图 2.2 2019 年 11 月宁波天气主体表格网页结构根据该网页信息,可以获取本文需要提取数据的大体结构:

图 2.3 网页天气历史数据大体结构

2.3爬取数据

通过 2.2,本文对 2019 年 11 月数据所在位置的网页进行了大体的结构分析,再通过查看

2019 年 12 月-2020 年 2 月的数据,发现网页结构并没有改变,主体都是一致的。因此,本文使用 python 先对 2019 年 11 月的天气数据进行爬取,代码如下所示(具体代码放在附录中):

图 2.4 2019 年 11 月天气数据爬取代码

爬取好的数据放入 weather.csv 文件中,接下来对 2019 年 12 月-2020 年 2 月的数据进行爬取,也加入至 weather.csv 文件中,代码如下所示:

图 2.5 2019 年 12 月-2020 年 2 月天气数据爬取代码

最终共得到 119 条数据。

3 2019 年 11 月至 2020 年 2 月宁波天气数据分析

4 附录


相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
目录
相关文章
|
1月前
|
分布式计算 Kubernetes Hadoop
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
149 6
|
1月前
|
分布式计算 资源调度 Hadoop
大数据-80 Spark 简要概述 系统架构 部署模式 与Hadoop MapReduce对比
大数据-80 Spark 简要概述 系统架构 部署模式 与Hadoop MapReduce对比
65 2
|
18天前
|
存储 分布式计算 Hadoop
数据湖技术:Hadoop与Spark在大数据处理中的协同作用
【10月更文挑战第27天】在大数据时代,数据湖技术凭借其灵活性和成本效益成为企业存储和分析大规模异构数据的首选。Hadoop和Spark作为数据湖技术的核心组件,通过HDFS存储数据和Spark进行高效计算,实现了数据处理的优化。本文探讨了Hadoop与Spark的最佳实践,包括数据存储、处理、安全和可视化等方面,展示了它们在实际应用中的协同效应。
64 2
|
19天前
|
存储 分布式计算 Hadoop
数据湖技术:Hadoop与Spark在大数据处理中的协同作用
【10月更文挑战第26天】本文详细探讨了Hadoop与Spark在大数据处理中的协同作用,通过具体案例展示了两者的最佳实践。Hadoop的HDFS和MapReduce负责数据存储和预处理,确保高可靠性和容错性;Spark则凭借其高性能和丰富的API,进行深度分析和机器学习,实现高效的批处理和实时处理。
58 1
|
10天前
|
并行计算 数据挖掘 大数据
Python数据分析实战:利用Pandas处理大数据集
Python数据分析实战:利用Pandas处理大数据集
|
1月前
|
分布式计算 Hadoop 大数据
大数据体系知识学习(一):PySpark和Hadoop环境的搭建与测试
这篇文章是关于大数据体系知识学习的,主要介绍了Apache Spark的基本概念、特点、组件,以及如何安装配置Java、PySpark和Hadoop环境。文章还提供了详细的安装步骤和测试代码,帮助读者搭建和测试大数据环境。
55 1
|
1月前
|
存储 分布式计算 资源调度
大数据-04-Hadoop集群 集群群起 NameNode/DataNode启动 3台公网云 ResourceManager Yarn HDFS 集群启动 UI可视化查看 YarnUI(一)
大数据-04-Hadoop集群 集群群起 NameNode/DataNode启动 3台公网云 ResourceManager Yarn HDFS 集群启动 UI可视化查看 YarnUI(一)
75 5
|
1月前
|
资源调度 数据可视化 大数据
大数据-04-Hadoop集群 集群群起 NameNode/DataNode启动 3台公网云 ResourceManager Yarn HDFS 集群启动 UI可视化查看 YarnUI(二)
大数据-04-Hadoop集群 集群群起 NameNode/DataNode启动 3台公网云 ResourceManager Yarn HDFS 集群启动 UI可视化查看 YarnUI(二)
36 4
|
1月前
|
XML 大数据 网络安全
大数据-03-Hadoop集群 免密登录 超详细 3节点云 分发脚本 踩坑笔记 SSH免密 集群搭建(一)
大数据-03-Hadoop集群 免密登录 超详细 3节点云 分发脚本 踩坑笔记 SSH免密 集群搭建(一)
68 4
|
1月前
|
SQL 分布式计算 大数据
大数据平台的毕业设计01:Hadoop与离线分析
大数据平台的毕业设计01:Hadoop与离线分析
103 0