大数据Hive安装与应用

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
云数据库 RDS MySQL,集群系列 2核4GB
推荐场景:
搭建个人博客
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
简介: 大数据Hive安装与应用

1 启动条件

Hive需要安装在成功部署的Hadoop平台上,并且要求Hadoop已经正常启动。所以,读者需要首先验证自己计算机上的Hadoop是否处于正常运行状态,方法是执行一个Hadoop命令,如“hdfs dfs -ls /”,看是否能正常显示HDFS上的目录列表;同时,通过浏览器查看系统状态,地址是“http://maser:9870”和“http://master:18088”(注意,Hadoop 3.0以前的老版本的查询地址是“http://master:50070”),查看结果应当与安装时的情况一致。如果满足上述两个条件,就说明Hadoop已经正常启动。


准备就绪后,就可以开始安装Hive了。我们打算将Hive安装在Master上,因此以下的操作均是在Master上进行的。同时,所有操作都使用csu用户,所以需要确保已经切换到csu用户。


2 部署安装

2.1 下载并解压Hive安装包

读者可以从http://archive.apache.org/dist/下载各种版本的Hive安装包,也可以直接在本书第6章软件资源中找到Hive安装包文件apache-hive-3.1.0-bin.tar.gz,这是2018年7月发布的版本。

9218cc5f42144275a45181190e44bfaf.png


请将该文件复制到Master的“/home/csu/resources”目录下(为了管理方便,我们建议读者把所有软件资源都放在一个目录下)。


首先将apache-hive-3.1.0-bin.tar.gz从“resources”目录下再复制至“/home/csu/”,接着进入“/home/csu/”子目录,并执行解压Hive安装包的命令。

25ec5d8c42e04af5929364f9d7015909.jpg


按下Enter键后会看到解压缩过程滚动显示的信息。执行完毕后可以查看一下安装情况。请切换到“apache-hive-3.1.0-bin”目录,执行命令“ls -l”,会看到如图6-16所示的内容,这些就是Hive系统文件和目录,说明解压缩成功。

b68c6a008fbc401c9c43c37dcf626cf4.jpg


2.2 配置Hive

创建hive-site.xml文件

实际上,在Hive安装目录下的配置目录“conf”中,系统给出了一些配置文件模板,如hive-default.xml.template等,但是Hive需要的配置文件是hive-site.xml,而它并不存在,所以需要用户自己创建(可以先将hive-default.xml.template改名为hive-site.xml,然后对其进行编辑,也可以完全重新创建,前者涉及比较复杂的配置修改,为简便起见,我们采用后者)。


40dd0f28579c4efaaa94bdf55295aed4.jpg


将下列代码添加到hive-site.xml文件中。

3ca505fd2cf74490894cf8a5a347e3f0.jpg

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
       <property> 
           <name>hive.metastore.local</name> 
           <value>true</value> 
       </property> 
       <property> 
           <name>javax.jdo.option.ConnectionURL</name>
           <value>jdbc:mysql://master:3306/hive_168?useSSL=false&amp;allowPublicKeyRetrieval= 
           true&amp;serverTimezone=GMT%2B8</value> 
       </property> 
       <property> 
           <name>javax.jdo.option.ConnectionDriverName</name> 
           <value>com.mysql.cj.jdbc.Driver</value> 
       </property> 
       <property> 
           <name>javax.jdo.option.ConnectionUserName</name> 
           <value>hadoopcsu</value> 
       </property> 
       <property> 
           <name>javax.jdo.option.ConnectionPassword</name> 
           <value>Hive_%CSUdjhuang168168</value> 
       </property> 
</configuration>

编辑完成,保存退出即可。通过“ls -l”命令可以看到“conf”目录增加了hive-site.xml文件。

2f8e7aad94c8467aa01d00cff18ad414.png



如果配置出现无法连接,请重新配置JDBC连接


我这里是mysql5.6的配置


<configuration>
    <!-- 存储元数据mysql相关配置 -->
    <property>
        <name>javax.jdo.option.ConnectionURL</name>
        <value> jdbc:mysql://node1:3306/hive?createDatabaseIfNotExist=true&amp;useSSL=false&amp;useUnicode=true&amp;characterEncoding=UTF-8</value>
    </property>
    <property>
        <name>javax.jdo.option.ConnectionDriverName</name>
        <value>com.mysql.jdbc.Driver</value>
    </property>
    <property>
        <name>javax.jdo.option.ConnectionUserName</name>
        <value>root</value>
    </property>
    <property>
        <name>javax.jdo.option.ConnectionPassword</name>
        <value>hadoop</value>
    </property>
    <!-- 关闭元数据存储授权  -->
    <property>
        <name>hive.metastore.event.db.notification.api.auth</name>
        <value>false</value>
    </property>
    <!-- 关闭元数据存储版本的验证 -->
    <property>
        <name>hive.metastore.schema.verification</name>
        <value>false</value>
    </property>
</configuration>

在上述代码中,“hive_168”正是我们前面在MySQL中创建的数据库,“hadoopcsu”是我们前面创建的MySQL新用户,而“Hive_%CSUdjhuang168168”则是在MySQL中创建hadoopcsu用户时所设置的密码。特别值得指出的是,我们在URL中采用的“useSSL=false& allowPublicKeyRetrieval=true&serverTimezone=GMT%2B8”包含了多个参数,需要仔细分析。首先,多参数的分割,必须使用“&”分隔符,这是xml文件的要求,有些人简单采用“&”符号,结果遇到报错,给出的提示是没有找到命令,这时往往不知什么原因,甚为郁闷;第二,由于数据库是MySQL 8.0.11,因此要求显式地设置SSL(安全套接层),我们这里设置为“false”,即不使用SSL;第三,“allowPublicKeyRetrieval”设置为“true”,以保证公钥解析;第四,MySQL 8.0.11要求明确设置时区,这里设置为东八区,其中“%2B”是“+”的转义字符,所以是GMT+8(东八区,也就是中国首都北京所在的时区)。此外,MySQL 8.0.11的驱动器也由过去的“com.mysql.jdbc.Driver”换成了“com.mysql.cj.jdbc.Driver”。


复制java connector到依赖库

请读者将第6章软件资源中的mysql-connector-java-8.0.11.jar文件复制到自己计算机Master中的“/home/csu/resources”目录下,然后进入该目录,将其中的mysql-connector-java-8.0.11.jar文件复制到Hive的安装目录的依赖库目录“lib”下,即执行“cp mysql-connector-java-8.0.11.jar ~/apache-hive-3.1.0-bin/lib/”命令。

f1c87222d58249bd8cab05afdc0e5423.jpg

我们顺便说一下如何才能得到上述文件。其实,在安装MySQL 8.0.11时,mysql-connector-java-8.0.11.jar这个文件就由系统放在“tmp”目录下了,用户可以在Root用户权限下通过“find”命令(在Linux终端输入“find / -name mysql-connector-java-8.0.11.jar”即可)找到该文件(图中有两个地方找到了该文件,但是后者是需要我们复制的)。当然用户也可以从MySQL官网下载这个文件,但不一定能找到。


配置.bash_profile文件

我们知道,.bash_profile文件是一个用户(如csu)使用Linux的系统配置文件,所以自然也需要为Hive进行必要的配置,可执行“gedit /home/csu/.bash_profile”命令进行配置,如图6-20所示。


538334c81518496c957065af8744d184.jpg
export HIVE_HOME=/home/csu/apache-hive-3.1.0-bin
export PATH=$PATH:$HIVE_HOME/bin

fd33da4dd66a474ca397bd8af75a0f39.jpg

2.3 启动并验证Hive

要启动Hive,必须保证Hadoop和MySQL已经启动。


在Hadoop和MySQL已经启动的条件下,进入Hive安装目录,执行“bin/hive”命令,如果出现Hive命令提示符“hive>”(Hive交互式命令行,即Hive Shell命令的提示符),则表明Hive安装和部署成功


51d0784fb5114eb9a65ac5f201707bad.jpg


注意事项:


在使用Hive时,有些用户可能会遇到不能启动Hive或者启动了Hive但不能执行命令的问题。例如,输入“bin/hive”命令并按下Enter键后,出现如下的报错信息:

FAILED: HiveException java.lang.RuntimeException: Unable to instantiate org.apache. hadoop.hive.ql.metadata. SessionHiveMetaStoreClient

或者启动后能够进入Hive交互式命令行,但是执行“show databases;”这样的命令时,给出如下异常信息:

FAILED: HiveException java.lang.RuntimeException: Unable to instantiate org.apache. hadoop.hive.ql.metadata. SessionHiveMetaStoreClient

从给出的信息来看,这些都是因为元数据库没有初始化而造成的。在Linux终端执行如下的命令即可解决该问题:

schematool -dbType mysql -initSchema


59f35d6ed86644b8a712457a46925b8b.png


2.4 Hive的基本应用

Hive的应用有两种模式,即命令行模式和交互模式。命令行模式使用如同“Hadoop fs -ls /”的方式,是在Linux提示符下进行的操作;交互模式则需要进入Hive Shell,注意,Hive Shell里的每条命令后都要用分号结束。


1.命令行模式


这里给出两个实例,详细用法可参考Hive的官方文档。


(1)创建表


hive -e 'create table testDB(id int, name string, age int);'


(2)查看已经创建的表


hive -e 'show tables;'

9706637d244e497293dbf73e1522e90e.png


2.交互式模式


进入Hive Shell,然后创建表,命令如图6-26所示。

create database test_db;

e972347c0c174df18569ea74c87f0576.png


show databases;

ba0feb9802bb496ea5cc8f4bf08296e1.png

退出Hive Shell命令是“exit;”或“quit;”。


从上述的实例可以发现,Hive的命令行模式与交互式模式在本质上是一致的,都是基于相同的计算引擎。


相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps&nbsp;
目录
相关文章
|
27天前
|
SQL 存储 分布式计算
ODPS技术架构深度剖析与实战指南——从零开始掌握阿里巴巴大数据处理平台的核心要义与应用技巧
【10月更文挑战第9天】ODPS是阿里巴巴推出的大数据处理平台,支持海量数据的存储与计算,适用于数据仓库、数据挖掘等场景。其核心组件涵盖数据存储、计算引擎、任务调度、资源管理和用户界面,确保数据处理的稳定、安全与高效。通过创建项目、上传数据、编写SQL或MapReduce程序,用户可轻松完成复杂的数据处理任务。示例展示了如何使用ODPS SQL查询每个用户的最早登录时间。
81 1
|
1月前
|
存储 分布式计算 druid
大数据-149 Apache Druid 基本介绍 技术特点 应用场景
大数据-149 Apache Druid 基本介绍 技术特点 应用场景
53 1
大数据-149 Apache Druid 基本介绍 技术特点 应用场景
ly~
|
1月前
|
供应链 搜索推荐 安全
大数据模型的应用
大数据模型在多个领域均有广泛应用。在金融领域,它可用于风险评估与预测、智能营销及反欺诈检测,助力金融机构做出更加精准的决策;在医疗领域,大数据模型能够协助疾病诊断与预测、优化医疗资源管理和加速药物研发;在交通领域,该技术有助于交通流量预测、智能交通管理和物流管理,从而提升整体交通效率;电商领域则借助大数据模型实现商品推荐、库存管理和价格优化,增强用户体验与企业效益;此外,在能源和制造业中,大数据模型的应用范围涵盖从需求预测到设备故障预测等多个方面,全面推动了行业的智能化转型与升级。
ly~
72 2
|
1月前
|
SQL 分布式计算 Hadoop
Hadoop-12-Hive 基本介绍 下载安装配置 MariaDB安装 3台云服务Hadoop集群 架构图 对比SQL HQL
Hadoop-12-Hive 基本介绍 下载安装配置 MariaDB安装 3台云服务Hadoop集群 架构图 对比SQL HQL
58 3
ly~
|
1月前
|
供应链 搜索推荐 大数据
大数据在零售业中的应用
在零售业中,大数据通过分析顾客的购买记录、在线浏览习惯等数据,帮助零售商理解顾客行为并提供个性化服务。例如,分析网站点击路径以了解顾客兴趣,并利用历史购买数据开发智能推荐系统,提升销售和顾客满意度。此外,大数据还能优化库存管理,通过分析销售数据和市场需求,更准确地预测需求,减少库存积压和缺货现象,提高资金流动性。
ly~
227 2
ly~
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
大数据在智慧金融中的应用
在智能算法交易中,深度学习揭示价格波动的复杂动力学,强化学习依据市场反馈优化策略,助力投资者获取阿尔法收益。智能监管合规利用自然语言处理精准解读法规,实时追踪监管变化,确保机构紧跟政策。大数据分析监控交易,预警潜在违规行为,变被动防御为主动预防。数智化营销通过多维度数据分析,构建细致客户画像,提供个性化产品推荐。智慧客服借助 AI 技术提升服务质量,增强客户满意度。
ly~
100 2
ly~
|
1月前
|
供应链 监控 搜索推荐
大数据的应用场景
大数据在众多行业中的应用场景广泛,涵盖金融、零售、医疗保健、交通物流、制造、能源、政府公共服务及教育等领域。在金融行业,大数据用于风险评估、精准营销、反欺诈以及决策支持;零售业则应用于商品推荐、供应链管理和门店运营优化等;医疗保健领域利用大数据进行疾病预测、辅助诊断和医疗质量评估;交通物流业通过大数据优化物流配送、交通管理和运输安全;制造业则在生产过程优化、设备维护和供应链协同方面受益;能源行业运用大数据提升智能电网管理和能源勘探效率;政府和公共服务部门借助大数据改善城市管理、政务服务及公共安全;教育行业通过大数据实现个性化学习和资源优化配置;体育娱乐业则利用大数据提升赛事分析和娱乐制作水平。
ly~
304 2
|
2月前
|
存储 数据可视化 大数据
大数据管理与应用
大数据管理与应用是一门融合数学、统计学和计算机科学的新兴专业,涵盖数据采集、存储、处理、分析及应用,旨在帮助企业高效决策和提升竞争力。核心课程包括数据库原理、数据挖掘、大数据分析技术等,覆盖数据处理全流程。毕业生可从事数据分析、大数据开发、数据管理等岗位,广泛应用于企业、金融及互联网领域。随着数字化转型加速,该专业需求旺盛,前景广阔。
124 5
|
2月前
|
存储 搜索推荐 大数据
大数据在医疗领域的应用
大数据在医疗领域有广泛应用,包括电子病历的数字化管理和共享,提升医疗服务效率与协同性;通过数据分析支持医疗决策,制定个性化治疗方案;预测疾病风险并提供预防措施;在精准医疗中深度分析患者基因组信息,实现高效治疗;在药物研发中,加速疗效和副作用发现,提高临床试验效率。此外,在金融领域,大数据的“4V”特性助力业务决策前瞻性,被广泛应用于银行、证券和保险的风险评估、市场分析及个性化服务中,提升运营效率和客户满意度。
81 6
|
1月前
|
SQL 分布式计算 Java
大数据-96 Spark 集群 SparkSQL Scala编写SQL操作SparkSQL的数据源:JSON、CSV、JDBC、Hive
大数据-96 Spark 集群 SparkSQL Scala编写SQL操作SparkSQL的数据源:JSON、CSV、JDBC、Hive
33 0

热门文章

最新文章

下一篇
无影云桌面