Hive-启动与操作(2)

简介: Hive-启动与操作(2)

1.环境介绍


本次用到的环境有:

1)Oracle Linux 7.4
2)Hadoop2.7.4
3)Hive2.1.1
4)Mysql5.5.57
5)Java1.8.0_144


2.启动Hive服务端


1.如果Hadoop服务没有启动,需要先启动Hadoop。

start-all.sh



2.初始化元数据。初始化成功后,会在操作窗口下面看到“schemaTool completed“初始化完成的字样

schematool -dbType mysql -initSchema


3.查看Hadoop守护进程,如果系统运行其它程序,进程数可能与下图有差别,但不影响运行,只要红框中除了RunJar进程外的其它所有进程(DataNode、NameNode、SecondaryNameNode 、ResourceManager、NodeManager)都存在即可。

jps


4.从键盘上敲入下面命令启动hive服务并进行日志记录。(这里注意,由于hive的环境变量是配置在/etc/profile文件下,如果操作完之前的操作后,你关闭的命令窗口后重新打开窗口操作后,有可能会出现hive命令不认识的情况,此时只需要在执行下面命令之前,执行一下的命令“source/etc/profile”,后再执行下面的命令即可。)

nohup hive --service metastore > metastore.log 2>&1 &

5.启动Hive

hive

6.点击桌面Konsole图标,再打开一个终端,像上一条一样录入hive启动Hive,由于环境变量配置在profile,如果出现问题,可像如下执行即可。

source /etc/profile
hive


3.Hive的基本操作


1.创建数据库dbtest。

CREATE DATABASE dbtest;

2.显示Hive中数据库。

SHOW DATABASES;

3.删除数据库dbtest。

DROP DATABASE dbtest;

4.显示Hive中数据库。

SHOW DATABASES;


5.如果dbtest不存在,建立数据库dbtest。

CREATE DATABASE IF NOT EXISTS dbtest;

6.使用数据库dbtest。

use dbtest;

7.显示数据库dbtest。

set hive.cli.print.current.db=true;


8.查询当前正在使用的数据库。

SELECT current_database();


9.显示当前数据库中的表。

show tables;

10.关闭显示当前数据库信息。

set hive.cli.print.current.db=false;

11.hive中查询本地磁盘上文件路径命令。

!pwd;

12.hive中查询本地磁盘上命令。

!ls /opt/hive/conf/;

13.磁盘查询本地磁盘上目录命令。注意这里不是在hive>环境下了,是在本地系统环境下。具体做法是:点击桌面Konsole图标打开一个终端,即命令窗口,在其中敲入pwd命令。

pwd

14.磁盘查询本地磁盘上命令。注意这里不是在hive>环境下了,是在本地系统环境下。具体做法是:点击桌面Konsole图标打开一个终端,即命令窗口,在其中敲入“ls /opt/hive/conf/”命令。

ls /opt/hive/conf/

15.hive中查询HDFS命令。

dfs -ls /;

16.Hadoop中查询HDFS命令。注意这里不是在hive>环境下了,是在本地系统环境下。具体做法是:点击桌面Konsole图标打开一个终端,即命令窗口,在其中敲入” hadoop dfs -ls /”命令。

hadoop dfs -ls /

至此Hive的启动与操作就结束了

目录
相关文章
|
6月前
|
SQL Java 数据库连接
java链接hive数据库实现增删改查操作
java链接hive数据库实现增删改查操作
411 0
|
SQL Java 数据库连接
Hive教程(08)- JDBC操作Hive
Hive教程(08)- JDBC操作Hive
825 0
|
SQL 存储 分布式计算
Hive的简单操作
Hive的简单操作
65 0
|
SQL 缓存 分布式计算
54 Hive的Join操作
54 Hive的Join操作
145 0
|
SQL HIVE
53 Hive的SELECT操作
53 Hive的SELECT操作
62 0
|
6月前
|
SQL 分布式计算 数据库
【大数据技术Spark】Spark SQL操作Dataframe、读写MySQL、Hive数据库实战(附源码)
【大数据技术Spark】Spark SQL操作Dataframe、读写MySQL、Hive数据库实战(附源码)
256 0
|
4月前
|
SQL 关系型数据库 MySQL
实时计算 Flink版操作报错合集之从mysql读数据写到hive报错,是什么原因
在使用实时计算Flink版过程中,可能会遇到各种错误,了解这些错误的原因及解决方法对于高效排错至关重要。针对具体问题,查看Flink的日志是关键,它们通常会提供更详细的错误信息和堆栈跟踪,有助于定位问题。此外,Flink社区文档和官方论坛也是寻求帮助的好去处。以下是一些常见的操作报错及其可能的原因与解决策略。
|
5月前
|
SQL 分布式计算 DataWorks
DataWorks操作报错合集之在进行Hive分区truncate操作时遇到权限不足,怎么解决
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
73 0
|
6月前
|
SQL DataWorks 网络安全
DataWorks操作报错合集之DataWorks连接Hive数据库时出现连接超时的问题如何解决
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
101 2
|
6月前
|
SQL 数据库 HIVE
Hive【基础知识 05】常用DDL操作(数据库操作+创建表+修改表+清空删除表+其他命令)
【4月更文挑战第8天】Hive【基础知识 05】常用DDL操作(数据库操作+创建表+修改表+清空删除表+其他命令)
96 0
下一篇
无影云桌面