Hadoop Hive概念学习系列之hive三种方式区别和搭建、HiveServer2环境搭建、HWI环境搭建和beeline环境搭建(五)

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
云数据库 RDS MySQL,集群系列 2核4GB
推荐场景:
搭建个人博客
云数据库 RDS PostgreSQL,集群系列 2核4GB
简介:

说在前面的话

  以下三种情况,最好是在3台集群里做,比如,master、slave1、slave2的master和slave1都安装了hive,将master作为服务端,将slave1作为服务端。

 

 以下,是针对CentOS版本的,若是Ubuntu版本,见我的博客 

Ubuntu系统下安装并配置hive-2.1.0


hive三种方式区别和搭建
Hive中metastore(元数据存储)的三种方式:
 a)  内嵌Derby方式
  b)  Local方式
  c)  Remote方式

 


1.本地derby
这种方式是最简单的存储方式,只需要在hive-site.xml做如下配置便可

复制代码
<?xml version="1.0"?> 
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?> 
<configuration> 
    <property> 
        <name>javax.jdo.option.ConnectionURL</name> 
        <value>jdbc:derby:;databaseName=metastore_db;create=true</value> 
    </property>

    <property> 
        <name>javax.jdo.option.ConnectionDriverName</name> 
        <value>org.apache.derby.jdbc.EmbeddedDriver</value> 
    </property> 

    <property> 
        <name>hive.metastore.local</name> 
        <value>true</value> 
    </property> 

    <property> 
        <name>hive.metastore.warehouse.dir</name> 
        <value>/user/hive/warehouse</value> 
    </property> 
</configuration>
复制代码

  注:使用derby存储方式时,运行hive会在当前目录生成一个derby文件和一个metastore_db目录。这种存储方式的弊端是在同一个目录下同时只能有一个hive客户端能使用数据库,否则会提示如下错误。

复制代码
[html] view plaincopyprint?
hive> show tables; 
FAILED: Error in metadata: javax.jdo.JDOFatalDataStoreException: Failed to start database 'metastore_db', see the next exception for details. 
NestedThrowables: 
java.sql.SQLException: Failed to start database 'metastore_db', see the next exception for details. 
FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask 
hive> show tables;
FAILED: Error in metadata: javax.jdo.JDOFatalDataStoreException: Failed to start database 'metastore_db', see the next exception for details.
NestedThrowables:
java.sql.SQLException: Failed to start database 'metastore_db', see the next exception for details.
FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask

 
复制代码

 

 

 


2.本地mysql (比如master、slave1、slave2集群。hive一般我是安装在master上)(也叫作hive单用户模式)

  当然,你也来个master、slave1、slave2集群,外加client专门来安装hive、sqoop、azkaban这样的。

  或者,你也来个master、slave1、slave2、slave3、slave4集群,hive一般我也是安装在master上。


这种存储方式需要在本地运行一个mysql服务器,并作如下配置(下面两种使用mysql的方式,需要将mysql的jar包拷贝到$HIVE_HOME/lib目录下)。

复制代码
<?xml version="1.0"?> 
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?> 

<configuration> 
    <property> 
        <name>hive.metastore.warehouse.dir</name> 
        <value>/user/hive_remote/warehouse</value> 
    </property> 

    <property> 
        <name>hive.metastore.local</name> 
        <value>true</value> 
    </property> 

    <property> 
        <name>javax.jdo.option.ConnectionURL</name> 
        <value>jdbc:mysql://localhost/hive_remote?createDatabaseIfNotExist=true</value> 
    </property> 

    <property> 
        <name>javax.jdo.option.ConnectionDriverName</name> 
        <value>com.mysql.jdbc.Driver</value> 
    </property> 

    <property> 
        <name>javax.jdo.option.ConnectionUserName</name> 
        <value>hive</value> 
    </property> 

    <property> 
        <name>javax.jdo.option.ConnectionPassword</name> 
        <value>password</value> 
    </property> 
</configuration>
复制代码

 

 

 

 

 

3.远端mysql (在主从上配)(也叫作hive多用户模式)

  (比如master、slave1、slave2集群。hive一般我是安装在master和slave1上)

  或者,你也来个master、slave1、slave2、slave3、slave4集群,hive一般我也是安装在master和slave1上。

 

1、remote一体
这种存储方式需要在远端服务器运行一个mysql服务器,并且需要在Hive服务器启动meta服务。
这里用mysql的测试服务器,ip位192.168.1.214,新建hive_remote数据库,字符集位latine1

复制代码
<?xml version="1.0"?> 
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?> 

<configuration> 

    <property> 
        <name>hive.metastore.warehouse.dir</name> 
        <value>/user/hive/warehouse</value> 
    </property> 

    <property> 
        <name>javax.jdo.option.ConnectionURL</name> 
        <value>jdbc:mysql://192.168.57.6:3306/hive?createDatabaseIfNotExist=true</value> 
    </property> 

    <property> 
        <name>javax.jdo.option.ConnectionDriverName</name> 
        <value>com.mysql.jdbc.Driver</value> 
    </property> 

    <property> 
        <name>javax.jdo.option.ConnectionUserName</name> 
        <value>hive</value> 
    </property> 

    <property> 
        <name>javax.jdo.option.ConnectionPassword</name> 
        <value>password</value> 
    </property> 

    <property> 
        <name>hive.metastore.local</name> 
        <value>false</value> 
    </property> 

    <property> 
        <name>hive.metastore.uris</name> 
        <value>thrift://192.168.1.188:9083</value> 
    </property> 

</configuration>
复制代码

  注:这里把hive的服务端和客户端都放在同一台服务器上了。服务端和客户端可以拆开。

 


2.Remote分开
将hive-site.xml配置文件拆为如下两部分
1)、服务端配置文件(比如在master)

复制代码
<?xml version="1.0"?> 
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?> 

<configuration> 

    <property> 
        <name>hive.metastore.warehouse.dir</name> 
        <value>/user/hive/warehouse</value> 
    </property> 

    <property> 
        <name>javax.jdo.option.ConnectionURL</name> 
        <value>jdbc:mysql://192.168.57.6:3306/hive?createDatabaseIfNotExist=true</value> 
    </property> 

    <property> 
        <name>javax.jdo.option.ConnectionDriverName</name> 
        <value>com.mysql.jdbc.Driver</value> 
    </property> 

    <property> 
        <name>javax.jdo.option.ConnectionUserName</name> 
        <value>root</value> 
    </property> 

    <property> 
        <name>javax.jdo.option.ConnectionPassword</name> 
        <value>123456</value> 
    </property> 
</configuration>
复制代码

 

 

 

  2)、客户端配置文件(比如在slave1)

复制代码
<?xml version="1.0"?> 
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?> 

<configuration> 

    <property> 
        <name>hive.metastore.warehouse.dir</name> 
        <value>/user/hive/warehouse</value> 
    </property> 

    <property> 
        <name>hive.metastore.local</name> 
        <value>false</value> 
    </property> 

    <property> 
        <name>hive.metastore.uris</name> 
        <value>thrift://192.168.57.5:9083</value> 
    </property> 

</configuration>

 
复制代码

 

 

  启动hive服务端程序

hive --service metastore

 

  或者

hive  --servie metastore -9083

 

 

 

  客户端直接使用hive命令即可。

复制代码
root@my188:~$ hive 
Hive history file=/tmp/root/hive_job_log_root_201301301416_955801255.txt 
hive> show tables; 
OK 
test_hive 
Time taken: 0.736 seconds 
hive>

 
复制代码

 

 

 

 

 

 

  看hive的官方文档

http://hive.apache.org/

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

服务端这边

步骤一:[root@sparkmaster local]# yum -y install mysql-server

 

 

 

 

步骤二:[root@sparkmaster local]# service mysqld start

 

 

 

步骤三:

[root@sparkmaster local ] mysql -uroot -p

mysql> CREATE USER 'hive'@'%' IDENTIFIED BY 'hive';

mysql> GRANT ALL PRIVILEGES ON *.* TO 'hive'@'%' WITH GRANT OPTION;

mysql> flush privileges;
mysql> exit;

[root@sparkmaster local]#

 

 

 

 步骤四:去hive的安装目录下的lib,下将 mysql-connector-java-5.1.21.jar 传到这个目录下。

 步骤五:去hive的安装目录下的conf,下配置hive-site.xml,见上。

 步骤六: 环境变量生效。这些不多赘述。

 

 

 若是出现问题,则见

1 复习ha相关 + weekend110的hive的元数据库mysql方式安装配置(完全正确配法)

 

 

 

 

客户端这边

步骤一:注意,不是这个

 

是这个

[root@sparkslave1 local]# yum -y install mysql-server

 

 

 

 步骤二:[root@sparkslave1 local]# service mysqld start

 

 

 步骤三:

[root@sparkslave1 local ] mysql -uroot -p

mysql> CREATE USER 'hive'@'%' IDENTIFIED BY 'hive';

mysql> GRANT ALL PRIVILEGES ON *.* TO 'hive'@'%' WITH GRANT OPTION;

mysql> flush privileges;
mysql> exit;

[root@sparkslave1 local]#

 

 

 

 步骤四:去hive的安装目录下的lib,下将 mysql-connector-java-5.1.21.jar 传到这个目录下。

 步骤五:去hive的安装目录下的conf,下配置hive-site.xml,见上。

 步骤六: 环境变量生效。这些不多赘述。

 

 

 

 

 

 

 

 

 

演示:

 

 

 

 服务端和客户端启动hive

  启动hive服务端程序

     hive --service metastore   

 

  客户端直接使用hive命令即可

$ hive   

hive> show tables;  

OK  

test_hive  

Time taken: 0.736 seconds  

hive>  

 

 

 

 

 HiveServer2测试

在hive安装目录下的bin目录下,执行nohup hive --service hiveserver2 &

或者,任一目录下,执行 $HIVE_HOME/bin/hiveserver2   或者     $HIVE_HOME/bin/hive   --service  hiveserver2

或者  $HIVE_HOME/bin/hive   --service  hiveserver2  10001   >/dev/null   2>/dev/null   &

 

 

 

 HWI测试

在hive安装目录下的bin目录下,执行 hive  --service hwi

 

 

 

 

 

CLI测试

在hive安装目录下的bin目录下,执行 hive  --service cli    或  ./hive

 

 

 

 

 

 

 

 

  

 

HiveServer2   & HWI   &   beeline 三大详细讲解
知识准备:bin/hiveserver2,这个是thrift服务器。
  bin/beeline,这个是客户端cli
其实,去看下Hive的架构,一目了然了。

 

  1、CLI(command line interface)即命令行接口。
2、Thrift Server是Facebook开发的一个软件框架,它用来开发可扩展且跨语言的服务,Hive集成了该服务,能让不同的编程语言调用Hive的接口。
3、Hive客户端提供了通过网页的方式访问Hive提供的服务,这个接口对应Hive的HWI组件(Hive web interface),使用前要启动HWI服务。
4、Metastore是Hive中的元数据存储,主要存储Hive中的元数据,
包括表的名称、表的列和分区及其属性、表的属性(是否为外部表等)、表的数据所在目录等,一般使用MySQL或Derby数据库。

 

 

 

参考链接:

 http://www.aboutyun.com/thread-12278-1-1.html

  在之前的学习和实践Hive中,使用的都是CLI或者hive –e的方式,该方式仅允许使用HiveQL执行查询、更新等操作,并且该方式比较笨拙单一。幸好Hive提供了轻客户端的实现,通过HiveServer或者HiveServer2客户端可以在不启动CLI的情况下对Hive中的数据进行操作,两者都允许远程客户端使用多种编程语言如JavaPython向Hive提交请求,取回结果。

  HiveServer或者HiveServer2都是基于Thrift的,但HiveSever有时被称为Thrift server,而HiveServer2却不会。

  既然已经存在HiveServer为什么还需要HiveServer2呢?这是因为HiveServer不能处理多于一个客户端的并发请求,这是由于HiveServer使用的Thrift接口所导致的限制,不能通过修改HiveServer的代码修正。因此在Hive-0.11.0版本中重写了HiveServer代码得到了HiveServer2,进而解决了该问题。HiveServer2支持多客户端的并发和认证,为开放API客户端如JDBC、ODBC提供了更好的支持。

       既然HiveServer2提供了更强大的功能,将会对其进行着重学习,但也会简单了解一下HiveServer的使用方法。在命令中输入hive --service help,结果如下。从结果可以了解到,可以使用hive <parameters> --service serviceName <serviceparameters>启动特定的服务,如cli、hiverserver、hiveserver2等。

[hadoop@hadoop~]$ hive --service help
Usage ./hive<parameters> --service serviceName <service parameters>
Service List: beelinecli help hiveserver2 hiveserver hwi jar lineage metastore metatool orcfiledumprcfilecat schemaTool version
Parametersparsed:
--auxpath : Auxillary jars
--config : Hive configuration directory
--service : Starts specificservice/component. cli is default
Parameters used:
HADOOP_HOME or HADOOP_PREFIX : Hadoop installdirectory
HIVE_OPT : Hive options
For help on aparticular service:
./hive --service serviceName --help
Debug help: ./hive --debug --help

 

 

 

在命令行输入hive --service hiveserver –help查看hiveserver的帮助信息:

[hadoop@hadoop~]$ hive --service hiveserver --help
Starting Hive Thrift Server
usage:hiveserver
-h,--help Print help information
--hiveconf <property=value> Use value for given property
--maxWorkerThreads <arg> maximum number of worker threads,
default:2147483647
--minWorkerThreads <arg> minimum number of worker threads,
default:100
-p <port> Hive Server portnumber, default:10000
-v,--verbose Verbose mode

 

 

 

启动hiveserver服务,可以得知默认hiveserver运行在端口10000,最小100工作线程,最大2147483647工作线程。

[hadoop@hadoop~]$ hive --service hiveserver -v
Starting Hive Thrift Server
14/08/01 11:07:09WARN conf.HiveConf: DEPRECATED: hive.metastore.ds.retry.* no longer has anyeffect. Use hive.hmshandler.retry.*instead
Starting hive serveron port 10000 with 100 min worker threads and 2147483647 maxworker threads

 

 

 

接下来学习更强大的hiveserver2Hiveserver2允许在配置文件hive-site.xml中进行配置管理,具体的参数为:

  hive.server2.thrift.min.worker.threads– 最小工作线程数,默认为5。

  hive.server2.thrift.max.worker.threads – 最小工作线程数,默认为500。
hive.server2.thrift.port– TCP 的监听端口,默认为10000。
hive.server2.thrift.bind.host– TCP绑定的主机,默认为localhost。

 

 

 

  也可以设置环境变量HIVE_SERVER2_THRIFT_BIND_HOST和HIVE_SERVER2_THRIFT_PORT覆盖hive-site.xml设置的主机和端口号。

从Hive-0.13.0开始,HiveServer2支持通过HTTP传输消息,该特性当客户端和服务器之间存在代理中介时特别有用。与HTTP传输相关的参数如下:

  hive.server2.transport.mode – 默认值为binary(TCP),可选值HTTP。
hive.server2.thrift.http.port– HTTP的监听端口,默认值为10001。

  hive.server2.thrift.http.path – 服务的端点名称,默认为 cliservice。
hive.server2.thrift.http.min.worker.threads– 服务池中的最小工作线程,默认为5。
hive.server2.thrift.http.max.worker.threads– 服务池中的最小工作线程,默认为500。

 

 

 

  启动Hiveserver2有两种方式

    一种是上面已经介绍过的hive --service hiveserver2

    另一种更为简洁,为hiveserver2。

使用hive--service hiveserver2 –H或hive--service hiveserver2 –help查看帮助信息:

Starting HiveServer2
Unrecognizedoption: -h
usage:hiveserver2
-H,--help Print help information
--hiveconf <property=value> Use value for given property

 

 

 

  默认情况下,HiveServer2以提交查询的用户执行查询(true),如果hive.server2.enable.doAs设置为false,查询将以运行hiveserver2进程的用户运行。为了防止非加密模式下的内存泄露,可以通过设置下面的参数为true禁用文件系统的缓存:

  fs.hdfs.impl.disable.cache – 禁用HDFS文件系统缓存,默认值为false。
fs.file.impl.disable.cache – 禁用本地文件系统缓存,默认值为false。

 

 


HiveServer2

  客户端可以在不启动CLI的情况下对Hive中的数据进行操作。
步骤一:配置HiveServer2,即是配置Hive的JDBC接口啦
   去修改hive-site.xml文件,当然默认大部分都配置好了,若出现什么问题,去网上搜索查查再具体配置。
  见https://cwiki.apache.org/confluence/display/Hive/Setting+up+HiveServer2

  步骤二:启动HiveServer2,默认是10000,
在hive的安装目录下,执行bin/hive --server hiveserver2
或执行bin/hiveserver2
或执行bin/hive --service Hiveserver2 &
当然也可以如下这样
bin/hive --service hiveserver2 --hiveconf hive.server2.thrift.port=10001

  

  

Hive与JDBC示例(非常重要,公司里必须这么干)
在使用 JDBC 开发 Hive 程序时, 必须首先开启 Hive 的远程服务接口。使用下面命令进行开启:
步骤一:在hive的安装目录下  
bin/hive --service Hiveserver2 & //Hive0.11.0以上版本提供了的服务是:Hiveserver2
我这里使用的Hive1.2.1版本,故我们使用Hiveserver2服务,下面我使用 Java 代码通过JDBC连接Hiveserver。

   步骤二:准备好,测试数据
本地目录/home/hadoop/下的djt.txt文件内容(每行数据之间用tab键隔开)如下所示:
1 dajiangtai
2 hadoop
3 Hive
4 hbase
5 spark

 

 

 在此,比如你是在Eclipse里或MyEclipse里编程,则需要

Hive项目开发环境搭建(Eclipse\MyEclipse + Maven)

 

 

 

  步骤三:编写号,程序代码
import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.ResultSet;
import java.sql.SQLException;
import java.sql.Statement;
public class Hive {
private static String driverName = "org.apache.Hive.jdbc.HiveDriver";//Hive驱动名称
private static String url = "jdbc:hive2://djt11:10000/default";//连接Hive2服务的连接地址
private static String user = "spark";//对HDFS有操作权限的用户
private static String password = "spark";//在非安全模式下,指定一个用户运行查询,忽略密码
private static String sql = "";
private static ResultSet res;
public static void main(String[] args) {
try {
Class.forName(driverName);//加载HiveServer2驱动程序
Connection conn = DriverManager.getConnection(url, user, password);//根据URL连接指定的数据库
Statement stmt = conn.createStatement();

//创建的表名
String tableName = "testHiveDriverTable";

/** 第一步:表存在就先删除 **/
sql = "drop table " + tableName;
stmt.execute(sql);

/** 第二步:表不存在就创建 **/
sql = "create table " + tableName + " (key int, value string) row format delimited fields terminated by '\t' STORED AS TEXTFILE";
stmt.execute(sql);

// 执行“show tables”操作
sql = "show tables '" + tableName + "'";
res = stmt.executeQuery(sql);
if (res.next()) {
System.out.println(res.getString(1));
}

// 执行“describe table”操作
sql = "describe " + tableName;
res = stmt.executeQuery(sql);
while (res.next()) { 
System.out.println(res.getString(1) + "\t" + res.getString(2));
}

// 执行“load data into table”操作
String filepath = "/home/hadoop/djt.txt";//Hive服务所在节点的本地文件路径
sql = "load data local inpath '" + filepath + "' into table " + tableName;
stmt.execute(sql);

// 执行“select * query”操作
sql = "select * from " + tableName;
res = stmt.executeQuery(sql);
while (res.next()) {
System.out.println(res.getInt(1) + "\t" + res.getString(2));
}

// 执行“regular Hive query”操作,此查询会转换为MapReduce程序来处理
sql = "select count(*) from " + tableName;
res = stmt.executeQuery(sql);
while (res.next()) {
System.out.println(res.getString(1));

conn.close();
conn = null;
} catch (ClassNotFoundException e) {
e.printStackTrace();
System.exit(1);
} catch (SQLException e) {
e.printStackTrace();
System.exit(1);
}
}
}

  运行结果(右击-->Run as-->Run on Hadoop)
执行“show tables”运行结果:
testHivedrivertable

     执行“describe table”运行结果:
key int
value string

   执行“select * query”运行结果:
1 dajiangtai
2 hadoop
3 Hive
4 hbase
5 spark

     执行“regular Hive query”运行结果:
5

 

 

 

 

 

 

HWI环境搭建方法一

 

 

 

  

  第二步:

 

 

 

  第三步:

 

 

  第四步:

 

   第五步:

 

 

 

 

 

 

 

Hwi环境搭建方法二(与上面一样的,自行选择)
HWI是Hive Web Interface的简称,是hive cli的一个web替换方案。

http://blog.csdn.net/ckfflyingdream/article/details/50515837  感谢!

Hive Web Interface(HWI)简介:Hive自带了一个Web-GUI。但在lib下,是一个hive-hwi-1.2.1.jar,需要我们自己制作。

怎么制作出hive-hwi-*.*.*.war?

  这里,以hive-1.2.1位例。

下载源码

  下载地址:http://www.apache.org/dyn/closer.cgi/hive/
得到apache-hive-1.2.1-src.tar.gz 
打包
将源码解压: 
tar -zxvf apache-hive-1.2.1-src.tar.gz
进入解压后的目录,再进入hwi目录下:
cd apache-hive-1.2.1-src/hwi/
生成war包:
jar cvM hive-hwi-1.2.1.war -C web .
将生成的war包,拷贝到hive的lib目录下,重启hwi服务。

 

报错解决
若有如下报错,需将jre下的tools.jar包拷到Hive的lib目录下,重启hwi服务:

cp /usr/java/jdk1.7.0_79/lib/tools.jar /home/Big.Data/Hive/apache-hive-1.2.1-bin/lib/.
sh bin/hive --service hwi
----------------------------------------------------------------------------------------------------------------------
Problem accessing /hwi/. Reason:
Unable to find a javac compiler;
com.sun.tools.javac.Main is not on the classpath.
Perhaps JAVA_HOME does not point to the JDK.
It is currently set to "/usr/java/jdk1.7.0_79/jre"

 

 

 

怎么制作出hive-hwi-*.*.*.war?
需要下载Hive的源码文件,然后将hwi/web目录下的文件用 jar cvf hive-hwi-1.2.1.war ./* 
其实war包也是zip包,可以通过。
cd hwi/web
zip hive-hwi-1.2.1.zip ./*      //打包成.zip文件。
将zip包后缀改成war
mv hive-hwi-1.2.1.zip hive-hwi-1.2.1.war

  


cp hive-hwi-1.2.1.war /opt/sxt/soft/apache-hive-1.2.1-bin/lib/

命令来打包成一个war包,然后放到Hive的lib目录下即可。

 

 

 <property>
<name>hive.hwi.listen.host</name>
<value>0.0.0.0</value>
<description>This is the host address the Hive Web Interface will listen on</description>
</property>
<property>
<name>hive.hwi.listen.port</name>
<value>9999</value>
<description>This is the port the Hive Web Interface will listen on</description>
</property>
<property>
<name>hive.hwi.war.file</name>
<value>${env:HWI_WAR_FILE}</value>
<description>This sets the path to the HWI war file, relative to ${HIVE_HOME}. </description>
</property>

 这是hive-1.2.1自带的,需要修改成下面部分。

 

 


配置文件conf/hive-site.xml,添加hive.hwi.war.file的配置:

<property>
<name>hive.hwi.listen.host</name>
<value>0.0.0.0</value>
<description>This is the host address the Hive Web Interface will listen on</description>
</property>
<property>
<name>hive.hwi.listen.port</name>
<value>9999</value>
<description>This is the port the Hive Web Interface will listen on</description>
</property>
<property>
<name>hive.hwi.war.file</name>
<value>lib/hive-hwi-1.2.1.war</value>
<description>This sets the path to the HWI war file, relative to ${HIVE_HOME}. </description>
</property>
启动
$ sh bin/hive --service hwi

----------------------------------------------------------------------------------------------------
没有UI war包的,需要自己下载对应版本的源码进行打包,后拷到lib下。

 

 

 

  其实这里/lib/hive-hwi-1.2.1war,就是hive安装目录下。soga!

 

  在配置文件中,监听端口默认是9999,也可以通过hive配置文件对端口进行修改。当配置完成后,
在hive的安装目录下,执行bin/hive --server hwi

  对应地,http://masterIP:9999/hwi

 

 

 

 

 

   Hive网络接口操作实例

  如,数据库及表信息查询、Hive查询、等

 

 

 

 

 

可参照http://blog.csdn.net/wulantian/article/details/38271803

https://cwiki.apache.org/confluence/display/Hive/GettingStarted#GettingStarted-RunningHiveServer2andBeeline

 

 

 

 

 

 

 

 


beeline环境搭建
步骤一:
在hive的安装目录下,执行bin/beeline,进入beeline,执行以下
!connect jdbc:hive2://localhost:10000 root org.apache.hive.jdbc.HiveDriver

 


本文转自大数据躺过的坑博客园博客,原文链接:http://www.cnblogs.com/zlslch/p/6101727.html,如需转载请自行联系原作者

相关实践学习
如何快速连接云数据库RDS MySQL
本场景介绍如何通过阿里云数据管理服务DMS快速连接云数据库RDS MySQL,然后进行数据表的CRUD操作。
全面了解阿里云能为你做什么
阿里云在全球各地部署高效节能的绿色数据中心,利用清洁计算为万物互联的新世界提供源源不断的能源动力,目前开服的区域包括中国(华北、华东、华南、香港)、新加坡、美国(美东、美西)、欧洲、中东、澳大利亚、日本。目前阿里云的产品涵盖弹性计算、数据库、存储与CDN、分析与搜索、云通信、网络、管理与监控、应用服务、互联网中间件、移动服务、视频服务等。通过本课程,来了解阿里云能够为你的业务带来哪些帮助 &nbsp; &nbsp; 相关的阿里云产品:云服务器ECS 云服务器 ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,助您降低 IT 成本,提升运维效率,使您更专注于核心业务创新。产品详情: https://www.aliyun.com/product/ecs
相关文章
|
2月前
|
SQL 分布式计算 关系型数据库
Hadoop-13-Hive 启动Hive 修改启动参数命令行启动测试 几句简单的HQL了解Hive
Hadoop-13-Hive 启动Hive 修改启动参数命令行启动测试 几句简单的HQL了解Hive
76 2
|
2月前
|
分布式计算 Hadoop 大数据
大数据体系知识学习(一):PySpark和Hadoop环境的搭建与测试
这篇文章是关于大数据体系知识学习的,主要介绍了Apache Spark的基本概念、特点、组件,以及如何安装配置Java、PySpark和Hadoop环境。文章还提供了详细的安装步骤和测试代码,帮助读者搭建和测试大数据环境。
84 1
|
2月前
|
SQL 分布式计算 Hadoop
手把手的教你搭建hadoop、hive
手把手的教你搭建hadoop、hive
189 1
|
2月前
|
SQL 分布式计算 Hadoop
Hadoop-14-Hive HQL学习与测试 表连接查询 HDFS数据导入导出等操作 逻辑运算 函数查询 全表查询 WHERE GROUP BY ORDER BY(一)
Hadoop-14-Hive HQL学习与测试 表连接查询 HDFS数据导入导出等操作 逻辑运算 函数查询 全表查询 WHERE GROUP BY ORDER BY(一)
58 4
|
2月前
|
SQL 分布式计算 关系型数据库
Hadoop-21 Sqoop 数据迁移工具 简介与环境配置 云服务器 ETL工具 MySQL与Hive数据互相迁移 导入导出
Hadoop-21 Sqoop 数据迁移工具 简介与环境配置 云服务器 ETL工具 MySQL与Hive数据互相迁移 导入导出
100 3
|
2月前
|
SQL 存储 分布式计算
Hadoop-16-Hive HiveServer2 HS2 允许客户端远程执行HiveHQL HCatalog 集群规划 实机配置运行
Hadoop-16-Hive HiveServer2 HS2 允许客户端远程执行HiveHQL HCatalog 集群规划 实机配置运行
60 3
|
2月前
|
SQL 分布式计算 Hadoop
Hadoop-12-Hive 基本介绍 下载安装配置 MariaDB安装 3台云服务Hadoop集群 架构图 对比SQL HQL
Hadoop-12-Hive 基本介绍 下载安装配置 MariaDB安装 3台云服务Hadoop集群 架构图 对比SQL HQL
89 3
|
2月前
|
分布式计算 资源调度 Hadoop
大数据-01-基础环境搭建 超详细 Hadoop Java 环境变量 3节点云服务器 2C4G XML 集群配置 HDFS Yarn MapRedece
大数据-01-基础环境搭建 超详细 Hadoop Java 环境变量 3节点云服务器 2C4G XML 集群配置 HDFS Yarn MapRedece
96 4
|
2月前
|
SQL 分布式计算 Hadoop
Hadoop-19 Flume Agent批量采集数据到HDFS集群 监听Hive的日志 操作则把记录写入到HDFS 方便后续分析
Hadoop-19 Flume Agent批量采集数据到HDFS集群 监听Hive的日志 操作则把记录写入到HDFS 方便后续分析
53 2
|
2月前
|
SQL
Hadoop-14-Hive HQL学习与测试 表连接查询 HDFS数据导入导出等操作 逻辑运算 函数查询 全表查询 WHERE GROUP BY ORDER BY(二)
Hadoop-14-Hive HQL学习与测试 表连接查询 HDFS数据导入导出等操作 逻辑运算 函数查询 全表查询 WHERE GROUP BY ORDER BY(二)
44 2