Hive环境搭建及简单使用

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
云数据库 RDS MySQL,集群系列 2核4GB
推荐场景:
搭建个人博客
云数据库 RDS MySQL,高可用系列 2核4GB
简介: 上篇文章我们介绍了Hive源码编译的相关内容,本篇文章将主要介绍Hive环境的搭建步骤及简单使用。

前言:

  • 上篇文章我们介绍了Hive源码编译的相关内容,本篇文章将主要介绍Hive环境的搭建步骤及简单使用。


1.下载安装包并解压

# 下载地址http://archive.cloudera.com/cdh5/cdh/5/ 选择hive-1.1.0-cdh5.7.0.tar.gz包,也可用我们上篇文章编译来的包
[hadoop@hadoop000 ~]$ ll
total 32
drwxrwxr-x 4 hadoop hadoop 4096 Jun  1 21:27 app          --软件安装路径
drwx------ 3 hadoop hadoop 4096 Jun  1 21:46 data
drwxrwxr-x 2 hadoop hadoop 4096 May 31 19:41 lib
drwxrwxr-x 2 hadoop hadoop 4096 May 31 19:41 maven_repo
drwxrwxr-x 2 hadoop hadoop 4096 Jun  1 21:46 pids
drwxrwxr-x 2 hadoop hadoop 4096 May 31 19:42 shell
drwxrwxr-x 2 hadoop hadoop 4096 May 31 19:48 software     --安装包路径
drwxrwxr-x 3 hadoop hadoop 4096 May 31 20:59 source       --源码包路径
[hadoop@hadoop000 ~]$ cd software/
[hadoop@hadoop000 software]$ pwd
/home/hadoop/software
[hadoop@hadoop000 software]$ wget http://archive.cloudera.com/cdh5/cdh/5/hive-1.1.0-cdh5.7.0.tar.gz
[hadoop@hadoop000 software]$ tar -xzvf hive-1.1.0-cdh5.7.0.tar.gz -C /home/hadoop/app/


2.配置环境变量

[hadoop@oradb3 ~]$ vi .bash_profile
# 添加下面内容:
export HIVE_HOME=/home/hadoop/app/hive-1.1.0-cdh5.7.0
export PATH=$HIVE_HOME/bin:$PATH
[hadoop@oradb3 ~]$ source .bash_profile
# 或添加到全局环境变量/etc/profile也可以


3.配置文件修改

[hadoop@hadoop000 conf]$ pwd
/home/hadoop/app/hive-1.1.0-cdh5.7.0/conf
[hadoop@hadoop000 conf]$ cp hive-env.sh.template  hive-env.sh
[hadoop@hadoop000 conf]$ vi hive-env.sh
# 更改HADOOP_HOME
HADOOP_HOME=/home/hadoop/app/hadoop-2.6.0-cdh5.7.0
[hadoop@hadoop000 conf]$ vi hive-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
        <property>
                <name>javax.jdo.option.ConnectionURL</name>
                <value>jdbc:mysql://localhost:3306/ruozedata_basic03?createDatabaseIfNotExist=true</value>
        </property>
        <property>
                <name>javax.jdo.option.ConnectionDriverName</name>
                <value>com.mysql.jdbc.Driver</value>
        </property>
        <property>
                <name>javax.jdo.option.ConnectionUserName</name>
                <value>root</value>
        </property>
        <property>
                <name>javax.jdo.option.ConnectionPassword</name>
                <value>123456</value>
        </property>
</configuration>


4.在lib下添加MySQL驱动包

# 需要自行下载 下载地址https://dev.mysql.com/downloads/connector/j/
[hadoop@oradb3 lib]$ pwd
/home/hadoop/app/hive-1.1.0-cdh5.7.0/lib
[hadoop@oradb3 lib]$ ll mysql-connector-java-5.1.13-bin.jar
-rw-r--r-- 1 hadoop hadoop 767492 Jun  1 22:01 mysql-connector-java-5.1.13-bin.jar


5.创建表进行测试

[hadoop@oradb3 ~]$ hive
which: no hbase in (/home/hadoop/app/hive-1.1.0-cdh5.7.0/bin:/home/hadoop/app/hadoop-2.6.0-cdh5.7.0/bin:/usr/java/jdk1.7/bin:/usr/lib64/qt-3.3/bin:/usr/local/bin:/bin:/usr/bin)
Logging initialized using configuration in jar:file:/home/hadoop/app/hive-1.1.0-cdh5.7.0/lib/hive-common-1.1.0-cdh5.7.0.jar!/hive-log4j.properties
hive> create database ruoze;
OK
Time taken: 1.35 seconds
hive> use ruoze;
OK
Time taken: 0.05 seconds
hive> create table test (id int);
OK
Time taken: 0.65 seconds
hive> show tables;
OK
test
Time taken: 0.239 seconds, Fetched: 1 row(s)
# 详细操作可参考:https://blog.csdn.net/scgaliguodong123_/article/details/46868525


相关实践学习
如何快速连接云数据库RDS MySQL
本场景介绍如何通过阿里云数据管理服务DMS快速连接云数据库RDS MySQL,然后进行数据表的CRUD操作。
全面了解阿里云能为你做什么
阿里云在全球各地部署高效节能的绿色数据中心,利用清洁计算为万物互联的新世界提供源源不断的能源动力,目前开服的区域包括中国(华北、华东、华南、香港)、新加坡、美国(美东、美西)、欧洲、中东、澳大利亚、日本。目前阿里云的产品涵盖弹性计算、数据库、存储与CDN、分析与搜索、云通信、网络、管理与监控、应用服务、互联网中间件、移动服务、视频服务等。通过本课程,来了解阿里云能够为你的业务带来哪些帮助 &nbsp; &nbsp; 相关的阿里云产品:云服务器ECS 云服务器 ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,助您降低 IT 成本,提升运维效率,使您更专注于核心业务创新。产品详情: https://www.aliyun.com/product/ecs
目录
相关文章
|
8月前
|
SQL 关系型数据库 MySQL
Hive【环境搭建 01】【hive-3.1.2版本 安装配置】【含 mysql-connector-java-5.1.47.jar 网盘资源】【详细】
【4月更文挑战第6天】Hive【环境搭建 01】【hive-3.1.2版本 安装配置】【含 mysql-connector-java-5.1.47.jar 网盘资源】【详细】
472 1
|
SQL 分布式计算 关系型数据库
|
SQL 分布式计算 Java
hive_学习_01_hive环境搭建(单机)
一、前言 本文承接上一篇:hbase_学习_01_HBase环境搭建(单机),主要是搭建 hive 的单机环境   二、环境准备 1.说明 hive 的下载来源有: 官方版本:http://archive.apache.org/dist/hive/ CDH版本:http://archive.cloudera.com/cdh5 企业应用一般选择CDH版本,因为比较稳定。
1850 0
|
SQL 关系型数据库 Apache
Hive基本原理及环境搭建
      今天我主要是在折腾这个Hive,早上看了一下书,最开始有点凌乱,后面慢慢地发现,hive其实挺简单的,以我的理解就是和数据库有关的东西,那这样的话对我来说就容易多啦,因为我对sql语法应该是比较熟悉了,而这个是HQL的,其实很多都差不多。先来看一下Hive的基本介绍: 一、Hive基本原理        hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映
1785 0
|
8月前
|
SQL 数据采集 数据挖掘
大数据行业应用之Hive数据分析航班线路相关的各项指标
大数据行业应用之Hive数据分析航班线路相关的各项指标
215 1
|
8月前
|
SQL 存储 大数据
【大数据技术Hadoop+Spark】Hive基础SQL语法DDL、DML、DQL讲解及演示(附SQL语句)
【大数据技术Hadoop+Spark】Hive基础SQL语法DDL、DML、DQL讲解及演示(附SQL语句)
287 0
|
8月前
|
SQL 分布式计算 数据库
【大数据技术Spark】Spark SQL操作Dataframe、读写MySQL、Hive数据库实战(附源码)
【大数据技术Spark】Spark SQL操作Dataframe、读写MySQL、Hive数据库实战(附源码)
329 0
|
3月前
|
SQL 分布式计算 Java
大数据-96 Spark 集群 SparkSQL Scala编写SQL操作SparkSQL的数据源:JSON、CSV、JDBC、Hive
大数据-96 Spark 集群 SparkSQL Scala编写SQL操作SparkSQL的数据源:JSON、CSV、JDBC、Hive
77 0
|
6月前
|
SQL 分布式计算 大数据
大数据处理平台Hive详解
【7月更文挑战第15天】Hive作为基于Hadoop的数据仓库工具,在大数据处理和分析领域发挥着重要作用。通过提供类SQL的查询语言,Hive降低了数据处理的门槛,使得具有SQL背景的开发者可以轻松地处理大规模数据。然而,Hive也存在查询延迟高、表达能力有限等缺点,需要在实际应用中根据具体场景和需求进行选择和优化。
下一篇
开通oss服务