开发者社区> biehl> 正文
阿里云
为了无法计算的价值
打开APP
阿里云APP内打开

Hive thrift服务(将Hive作为一个服务器,其他机器可以作为客户端进行访问)

简介:  步骤一:启动为前台:bin/hiveserver2 步骤二:启动为后台:nohup bin/hiveserver2 1>/var/log/hiveserver.log 2>/var/log/hiveserver.
+关注继续查看

 步骤一:启动为前台:bin/hiveserver2

步骤二:启动为后台:nohup bin/hiveserver2 1>/var/log/hiveserver.log 2>/var/log/hiveserver.err &

1:启动成功后,可以在别的节点上用beeline去连接

  方式一:

    hive/bin/beeline  回车,进入beeline的命令界面

    输入命令连接hiveserver2

    beeline> !connect jdbc:hive2//master:10000

    (master机器是hiveserver2所启动的那台主机名,端口默认是10000

  方式二:

    或者启动就连接:

    bin/beeline -u jdbc:hive2://master:10000 -n hadoop

接下来就可以做正常sql查询了

1:将Hive作为一个服务器,其他机器可以作为客户端进行访问:

 

2:然后寻找符合thrift的这种协议的客户端来连这个服务,然而hive自带这种客户端(我这里复制本台机器,弄了两个窗口):

 

然后呢,就是开启了命令行客户端了,然后了连接你的hive即可。我这里遇到一个错误,顺手贴一下吧。

 造成这个错误的原因是!connect jdbc:hive2//master:10000写成!connect jdbc:hive2//localhost:10000即可。

 1 [root@master apache-hive-1.2.1-bin]# cd bin/
 2 [root@master bin]# ls
 3 beeline  ext  hive  hive-config.sh  hiveserver2  metatool  schematool
 4 [root@master bin]# ./beeline 
 5 Beeline version 1.2.1 by Apache Hive
 6 beeline> !connect jdbc:hive2//master:10000
 7 scan complete in 1ms
 8 17/12/12 04:42:53 [main]: ERROR beeline.ClassNameCompleter: Fail to parse the class name from the Jar file due to the exception:java.io.FileNotFoundException: minlog-1.2.jar (No such file or directory)
 9 17/12/12 04:42:53 [main]: ERROR beeline.ClassNameCompleter: Fail to parse the class name from the Jar file due to the exception:java.io.FileNotFoundException: objenesis-1.2.jar (No such file or directory)
10 17/12/12 04:42:53 [main]: ERROR beeline.ClassNameCompleter: Fail to parse the class name from the Jar file due to the exception:java.io.FileNotFoundException: reflectasm-1.07-shaded.jar (No such file or directory)
11 scan complete in 5708ms
12 No known driver to handle "jdbc:hive2//master:10000"

然后呢我写成beeline> !connect jdbc:hive2://localhost:10000回车。会让你输入账号和密码,这里直接输入你的登陆linux的账号和密码即可,我习惯使用root和其密码操作,虽然不好,但是这里直接输入root账号,123456密码即可登陆。

 1 beeline> !connect jdbc:hive2://localhost:10000
 2 Connecting to jdbc:hive2://localhost:10000
 3 Enter username for jdbc:hive2://localhost:10000: hadoop
 4 Enter password for jdbc:hive2://localhost:10000: 
 5 Error: Failed to open new session: java.lang.RuntimeException: java.lang.RuntimeException: org.apache.hadoop.security.AccessControlException: Permission denied: user=hadoop, access=EXECUTE, inode="/tmp":root:supergroup:drwx------
 6     at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkFsPermission(FSPermissionChecker.java:271)
 7     at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.check(FSPermissionChecker.java:257)
 8     at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkTraverse(FSPermissionChecker.java:208)
 9     at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkPermission(FSPermissionChecker.java:171)
10     at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.checkPermission(FSNamesystem.java:6545)
11     at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.getFileInfo(FSNamesystem.java:4182)
12     at org.apache.hadoop.hdfs.server.namenode.NameNodeRpcServer.getFileInfo(NameNodeRpcServer.java:881)
13     at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolServerSideTranslatorPB.getFileInfo(ClientNamenodeProtocolServerSideTranslatorPB.java:821)
14     at org.apache.hadoop.hdfs.protocol.proto.ClientNamenodeProtocolProtos$ClientNamenodeProtocol$2.callBlockingMethod(ClientNamenodeProtocolProtos.java)
15     at org.apache.hadoop.ipc.ProtobufRpcEngine$Server$ProtoBufRpcInvoker.call(ProtobufRpcEngine.java:619)
16     at org.apache.hadoop.ipc.RPC$Server.call(RPC.java:975)
17     at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2040)
18     at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2036)
19     at java.security.AccessController.doPrivileged(Native Method)
20     at javax.security.auth.Subject.doAs(Subject.java:415)
21     at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1656)
22     at org.apache.hadoop.ipc.Server$Handler.run(Server.java:2034) (state=,code=0)
23 0: jdbc:hive2://localhost:10000 (closed)> !connect jdbc:hive2://localhost:10000
24 Connecting to jdbc:hive2://localhost:10000
25 Enter username for jdbc:hive2://localhost:10000: root
26 Enter password for jdbc:hive2://localhost:10000: ******
27 Connected to: Apache Hive (version 1.2.1)
28 Driver: Hive JDBC (version 1.2.1)
29 Transaction isolation: TRANSACTION_REPEATABLE_READ
30 1: jdbc:hive2://localhost:10000> 

登陆以后即可以进行操作,演示如下所示:

停更......

2017-12-12 20:50:44

版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。

相关文章
如何监控 Linux 服务器状态?
watch 命令可以让你重复执行某一条命令来监控一些参数的变化,top 命令可以查看某个用户运行的进程数以及消耗的资源,而 ac 命令则可以查看每个用户使用服务器时间。
0 0
SCP:不同Linux服务器间的复制
SCP:不同Linux服务器间的复制
0 0
xshell连接Linux服务器快捷键(非常实用)
xshell的快捷键(非常实用) 删除 ctrl + d 删除光标所在位置上的字符相当于VIM里x或者dl ctrl + h 删除光标所在位置前的字符相当于VIM里hx或者dh ctrl + k 删除光标后面所有字符相当于VIM里d shift+$ ctrl + u 删除光标前面所有字符相当于VIM里d shift+^ ctrl + w 删除光标前一个单词相当于VIM里db ctrl + y 恢复ctrl+u上次执行时删除的字符 ctrl + ? 撤消前一次输入 alt + r 撤消前一次动作 alt + d 删除光标所在位置的后单词 移动 ctrl + a 将光标移动到命令行开头相当于VI
0 0
用 Python 脚本实现对 Linux 服务器的监控
目前 Linux 下有一些使用 Python 语言编写的 Linux 系统监控工具 比如 inotify-sync(文件系统安全监控软件)、glances(资源监控工具)在实际工作中,Linux 系统管理员可以根据自己使用的服务器的具体情况编写一下简单实用的脚本实现对 Linux 服务器的监控。 本文介绍一下使用 Python 脚本实现对 Linux 服务器 CPU 内存 网络的监控脚本的编写。
0 0
JProfiler10.1.3:远程Linux服务器Tomcat的JVM性能监控
JProfiler10.1.3:远程Linux服务器Tomcat的JVM性能监控
0 0
【Linux】把web项目部署到Linux服务器上
【Linux】把web项目部署到Linux服务器上
0 0
【阿里云】在Windows系统上用FileZilla访问阿里云Linux服务器
【阿里云】在Windows系统上用FileZilla访问阿里云Linux服务器
0 0
Xshell如何远程连接Linux服务器
Xshell如何远程连接Linux服务器
0 0
J3
Java 开发 Linux 服务器常用软件安装,保姆教程
Java 开发 Linux 服务器常用软件安装,保姆教程
0 0
Linux(二)服务器运行环境配置(下)
Linux相信对大多数程序员来说都不陌生,毕竟在服务器端依然还是霸主地位而且丝毫没有退居二线的意思,以至于现在几乎每一个软件开发的相关人员都得或多或少的知道一些Linux的相关内容,本文将介绍如何在刚拿到一台云服务器(采用centos)来进行运行环境的搭建,包括JDK、Mysql、Tomcat以及nginx。相信对于小白来说很有必要的,也是我个人的一个记录。
0 0
+关注
biehl
爱生活,爱工作。
文章
问答
文章排行榜
最热
最新
相关电子书
更多
Spring Boot2.0实战Redis分布式缓存
立即下载
Speeding up Spark with Data Co
立即下载
挑战双11实时数据洪峰的流计算实践
立即下载