Hadoop2.7实战v1.0之Hive-2.0.0的Hiveserver2服务和beeline远程调试

简介: 0.环境Hadoop2.7实战v1.0之Hive-2.0.0+MySQL远程模式安装: http://blog.itpub.net/30089851/viewspace-2082805/机器 hadoop-01:192.
0.环境
Hadoop2.7实战v1.0之Hive-2.0.0+MySQL远程模式安装: http://blog.itpub.net/30089851/viewspace-2082805/
机器 hadoop-01:192.168.33.01


1.开启metastore 和 hiveserver2服务
[root@sht-sgmhadoopnn-01 bin]# hive --service metastore &
[1] 31092
[root@hadoop-01 bin]# hive --service hiveserver2 &
[root@hadoop-01 bin]# ps -ef|grep hive
root     31092 21892 11 21:57 pts/0    00:00:15 /usr/java/jdk1.7.0_67-cloudera/bin/java -Xmx256m -Djava.library.path=/hadoop/hadoop-2.7.2/lib -Djava.net.preferIPv4Stack=true -Dhadoop.log.dir=/hadoop/hadoop-2.7.2/logs -Dhadoop.log.file=hadoop.log -Dhadoop.home.dir=/hadoop/hadoop-2.7.2 -Dhadoop.id.str=root -Dhadoop.root.logger=INFO,console -Dhadoop.policy.file=hadoop-policy.xml -Djava.net.preferIPv4Stack=true -Xmx512m -Dlog4j.configurationFile=hive-log4j2.properties -Dhadoop.security.logger=INFO,NullAppender org.apache.hadoop.util.RunJar /hadoop/hive-remote-server/lib/hive-service-2.0.0.jar org.apache.hadoop.hive.metastore.HiveMetaStore
root     31206 21892 15 21:57 pts/0    00:00:21 /usr/java/jdk1.7.0_67-cloudera/bin/java -Xmx256m -Djava.library.path=/hadoop/hadoop-2.7.2/lib -Djava.net.preferIPv4Stack=true -Dhadoop.log.dir=/hadoop/hadoop-2.7.2/logs -Dhadoop.log.file=hadoop.log -Dhadoop.home.dir=/hadoop/hadoop-2.7.2 -Dhadoop.id.str=root -Dhadoop.root.logger=INFO,console -Dhadoop.policy.file=hadoop-policy.xml -Djava.net.preferIPv4Stack=true -Xmx512m -Dlog4j.configurationFile=hive-log4j2.properties -Dhadoop.security.logger=INFO,NullAppender org.apache.hadoop.util.RunJar /hadoop/hive-remote-server/lib/hive-service-2.0.0.jar org.apache.hive.service.server.HiveServer2
[root@hadoop-01 bin]# netstat -nlp |grep 31206
tcp        0      0 0.0.0.0:10000               0.0.0.0:*                   LISTEN      31206/java          
tcp        0      0 0.0.0.0:10002               0.0.0.0:*                   LISTEN      31206/java      

####打开web http://192.168.33.01:10002/hiveserver2.jsp
端口10000 (hive.server2.thrift.port) 和10002

2.beeline调试,远程连接到HiveServer2    http://blog.csdn.net/huanggang028/article/details/44591663
Beeline工作模式有两种,即本地嵌入模式和远程模式。嵌入模式情况下,它返回一个嵌入式的Hive(类似于Hive CLI)。
而远程模式则是通过Thrift协议与某个单独的HiveServer2进程进行连接通信。

[root@hadoop-01 bin]# ./beeline
Beeline version 2.0.0 by Apache Hive
beeline> !connect jdbc:hive2://192.168.33.01:10000 root root 
Connecting to jdbc:hive2://192.168.33.01:10000
Error: Failed to open new session: java.lang.RuntimeException: org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.security.authorize.AuthorizationException): User: root is not allowed to impersonate root (state=,code=0)
 
###错误 User: root is not allowed to impersonate root 

3.停止集群和hive,修改配置,同步配置,重启集群和hive
[root@hadoop-01 sbin]# ./stop-all.sh
[root@hadoop-01 sbin]# ps -ef|grep hive
root     31092 21892 11 21:57 pts/0    00:00:15 /usr/java/jdk1.7.0_67-cloudera/bin/java -Xmx256m -Djava.library.path=/hadoop/hadoop-2.7.2/lib -Djava.net.preferIPv4Stack=true -Dhadoop.log.dir=/hadoop/hadoop-2.7.2/logs -Dhadoop.log.file=hadoop.log -Dhadoop.home.dir=/hadoop/hadoop-2.7.2 -Dhadoop.id.str=root -Dhadoop.root.logger=INFO,console -Dhadoop.policy.file=hadoop-policy.xml -Djava.net.preferIPv4Stack=true -Xmx512m -Dlog4j.configurationFile=hive-log4j2.properties -Dhadoop.security.logger=INFO,NullAppender org.apache.hadoop.util.RunJar /hadoop/hive-remote-server/lib/hive-service-2.0.0.jar org.apache.hadoop.hive.metastore.HiveMetaStore
root     31206 21892 15 21:57 pts/0    00:00:21 /usr/java/jdk1.7.0_67-cloudera/bin/java -Xmx256m -Djava.library.path=/hadoop/hadoop-2.7.2/lib -Djava.net.preferIPv4Stack=true -Dhadoop.log.dir=/hadoop/hadoop-2.7.2/logs -Dhadoop.log.file=hadoop.log -Dhadoop.home.dir=/hadoop/hadoop-2.7.2 -Dhadoop.id.str=root -Dhadoop.root.logger=INFO,console -Dhadoop.policy.file=hadoop-policy.xml -Djava.net.preferIPv4Stack=true -Xmx512m -Dlog4j.configurationFile=hive-log4j2.properties -Dhadoop.security.logger=INFO,NullAppender org.apache.hadoop.util.RunJar /hadoop/hive-remote-server/lib/hive-service-2.0.0.jar org.apache.hive.service.server.HiveServer2
[root@hadoop-01 sbin]# kill -9 31092
[root@hadoop-01 sbin]# kill -9 31206

[root@hadoop-01 sbin]# cd ../ect/hadoop/

点击(此处)折叠或打开

  1. [root@hadoop-01 hadoop]# vi core-site.xml


  2.      #用户“root”可以代理所有主机上的所有用户
  3.         <property>
  4.            <name>hadoop.proxyuser.root.hosts</name>
  5.            <value>*</value>
  6.         </property>
  7.         <property>
  8.             <name>hadoop.proxyuser.root.groups</name>
  9.             <value>*</value>
  10.        </property>
###一定要同步配置

[root@hadoop-01 hadoop]#  scp core-site.xml root@hadoop-02:/hadoop/hadoop-2.7.2/etc/hadoop/
core-site.xml                                                                                                             100% 1779     1.7KB/s   00:00    
[root@hadoop-01 hadoop]#  scp core-site.xml root@hadoop-03:/hadoop/hadoop-2.7.2/etc/hadoop/
core-site.xml                                                                                                             100% 1779     1.7KB/s   00:00    
[root@hadoop-01 hadoop]#  scp core-site.xml root@hadoop-04:/hadoop/hadoop-2.7.2/etc/hadoop/
core-site.xml                                                                                                             100% 1779     1.7KB/s   00:00    
[root@hadoop-01 hadoop]#  scp core-site.xml root@hadoop-05:/hadoop/hadoop-2.7.2/etc/hadoop/
core-site.xml                                                                                                             100% 1779     1.7KB/s   00:00    
[root@hadoop-01 hadoop]# cd ../../sbin
[root@hadoop-01 sbin]# ./start-all.sh

[root@hadoop-01 sbin]# cd /hadoop/hive-remote-server/bin
[root@hadoop-01 bin]# hive --service metastore &
[root@hadoop-01 bin]# hive --service hiveserver2 &


4.beeline再次调试
[root@hadoop-01 bin]# ./beeline
Beeline version 2.0.0 by Apache Hive
beeline> !connect jdbc:hive2://192.168.33.01:10000 root root 

Connecting to jdbc:hive2://192.168.33.01:10000
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/hadoop/hive-remote-server/lib/hive-jdbc-2.0.0-standalone.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/hadoop/hadoop-2.7.2/share/hadoop/common/lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory]
Connected to: Apache Hive (version 2.0.0)
Driver: Hive JDBC (version 2.0.0)
16/06/08 22:32:56 [main]: WARN jdbc.HiveConnection: Request to set autoCommit to false; Hive does not support autoCommit=false.
Transaction isolation: TRANSACTION_REPEATABLE_READ
0: jdbc:hive2://192.168.33.01:10000> show tables;
INFO  : Compiling command(queryId=root_20160608223313_3c8f0f43-c860-4127-8962-109e751ea306): show tables
INFO  : Semantic Analysis Completed
INFO  : Returning Hive schema: Schema(fieldSchemas:[FieldSchema(name:tab_name, type:string, comment:from deserializer)], properties:null)
INFO  : Completed compiling command(queryId=root_20160608223313_3c8f0f43-c860-4127-8962-109e751ea306); Time taken: 1.579 seconds
INFO  : Concurrency mode is disabled, not creating a lock manager
INFO  : Executing command(queryId=root_20160608223313_3c8f0f43-c860-4127-8962-109e751ea306): show tables
INFO  : Starting task [Stage-0:DDL] in serial mode
INFO  : Completed executing command(queryId=root_20160608223313_3c8f0f43-c860-4127-8962-109e751ea306); Time taken: 0.075 seconds
INFO  : OK
+--------------+--+
|   tab_name   |
+--------------+--+
| studentinfo  |
+--------------+--+
1 row selected (2.06 seconds)
0: jdbc:hive2://192.168.33.01:10000> select * from studentinfo;
INFO  : Compiling command(queryId=root_20160608223330_c11ea86f-4c91-49bc-924e-ce6f70c0884e): select * from studentinfo
INFO  : Semantic Analysis Completed
INFO  : Returning Hive schema: Schema(fieldSchemas:[FieldSchema(name:studentinfo.id, type:int, comment:null), FieldSchema(name:studentinfo.name, type:string, comment:null), FieldSchema(name:studentinfo.age, type:int, comment:null), FieldSchema(name:studentinfo.tel, type:string, comment:null)], properties:null)
INFO  : Completed compiling command(queryId=root_20160608223330_c11ea86f-4c91-49bc-924e-ce6f70c0884e); Time taken: 2.276 seconds
INFO  : Concurrency mode is disabled, not creating a lock manager
INFO  : Executing command(queryId=root_20160608223330_c11ea86f-4c91-49bc-924e-ce6f70c0884e): select * from studentinfo
INFO  : Completed executing command(queryId=root_20160608223330_c11ea86f-4c91-49bc-924e-ce6f70c0884e); Time taken: 0.001 seconds
INFO  : OK
+-----------------+-------------------+------------------+------------------+--+
| studentinfo.id  | studentinfo.name  | studentinfo.age  | studentinfo.tel  |
+-----------------+-------------------+------------------+------------------+--+
| 1               | a                 | 26               | 113              |
| 2               | b                 | 11               | 222              |
+-----------------+-------------------+------------------+------------------+--+
2 rows selected (2.741 seconds)
0: jdbc:hive2://192.168.33.01:10000> 
目录
相关文章
|
27天前
|
SQL 分布式计算 Hadoop
手把手的教你搭建hadoop、hive
手把手的教你搭建hadoop、hive
66 1
|
1月前
|
SQL 分布式计算 关系型数据库
Hadoop-21 Sqoop 数据迁移工具 简介与环境配置 云服务器 ETL工具 MySQL与Hive数据互相迁移 导入导出
Hadoop-21 Sqoop 数据迁移工具 简介与环境配置 云服务器 ETL工具 MySQL与Hive数据互相迁移 导入导出
49 3
|
1月前
|
SQL 分布式计算 Hadoop
Hadoop-19 Flume Agent批量采集数据到HDFS集群 监听Hive的日志 操作则把记录写入到HDFS 方便后续分析
Hadoop-19 Flume Agent批量采集数据到HDFS集群 监听Hive的日志 操作则把记录写入到HDFS 方便后续分析
42 2
|
1月前
|
SQL 分布式计算 关系型数据库
Hadoop-24 Sqoop迁移 MySQL到Hive 与 Hive到MySQL SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
Hadoop-24 Sqoop迁移 MySQL到Hive 与 Hive到MySQL SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
79 0
|
1月前
|
分布式计算 Kubernetes Hadoop
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
129 6
|
1月前
|
分布式计算 资源调度 Hadoop
大数据-80 Spark 简要概述 系统架构 部署模式 与Hadoop MapReduce对比
大数据-80 Spark 简要概述 系统架构 部署模式 与Hadoop MapReduce对比
62 2
|
8天前
|
存储 分布式计算 Hadoop
数据湖技术:Hadoop与Spark在大数据处理中的协同作用
【10月更文挑战第27天】在大数据时代,数据湖技术凭借其灵活性和成本效益成为企业存储和分析大规模异构数据的首选。Hadoop和Spark作为数据湖技术的核心组件,通过HDFS存储数据和Spark进行高效计算,实现了数据处理的优化。本文探讨了Hadoop与Spark的最佳实践,包括数据存储、处理、安全和可视化等方面,展示了它们在实际应用中的协同效应。
40 2
|
8天前
|
存储 分布式计算 Hadoop
数据湖技术:Hadoop与Spark在大数据处理中的协同作用
【10月更文挑战第26天】本文详细探讨了Hadoop与Spark在大数据处理中的协同作用,通过具体案例展示了两者的最佳实践。Hadoop的HDFS和MapReduce负责数据存储和预处理,确保高可靠性和容错性;Spark则凭借其高性能和丰富的API,进行深度分析和机器学习,实现高效的批处理和实时处理。
34 1
|
26天前
|
分布式计算 Hadoop 大数据
大数据体系知识学习(一):PySpark和Hadoop环境的搭建与测试
这篇文章是关于大数据体系知识学习的,主要介绍了Apache Spark的基本概念、特点、组件,以及如何安装配置Java、PySpark和Hadoop环境。文章还提供了详细的安装步骤和测试代码,帮助读者搭建和测试大数据环境。
49 1
|
1月前
|
存储 分布式计算 资源调度
大数据-04-Hadoop集群 集群群起 NameNode/DataNode启动 3台公网云 ResourceManager Yarn HDFS 集群启动 UI可视化查看 YarnUI(一)
大数据-04-Hadoop集群 集群群起 NameNode/DataNode启动 3台公网云 ResourceManager Yarn HDFS 集群启动 UI可视化查看 YarnUI(一)
71 5