hive集成kerberos问题2

简介:
 上次说到hive cli和kerberos集成的问题,而访问hive的另一种方法就是使用hiveserver,hive 0.11之后为hiveserver2。hiveserver的可用性可以用beeline进行测试。
hiveserver有一个user impersonation的功能,可以把运行job的用户设置为提交job的用户,在hive0.11之前,这个参数是由hive.server2.enable.impersonation控制,hive0.11开始改成了hive.server2.enable.doAs(默认为true)。
hive 集成kerberos传入用户名的问题,在之前的博客已经提过。
由于线上使用jdbc连接hiveserver,在hiveserver2集成了kerberos之后需要做jdbc可用性的测试。

在使用jdbc+kerberos时,主要注意几个问题
1.链接字符串格式,其中user,password并不生效
jdbc:hive2://<host>:<port>/<db>;principal=<Server_Principal_of_HiveServer2>
比如Connection con = DriverManager.getConnection("jdbc:hive2://host:10000/cdnlog;principal=hdfs/host@KERBEROS_HADOOP", "user1", "");
在传入hiveserver2时,用户并不是user1
2.在有tgt cache时,传入的用户为当前tgt的用户(可以通过klist查看)
3.principal的名称和hiveserver2的主机名需要一致

其中主要注意第一点。
可用下面的代码进行测试:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
import  java.sql.SQLException;
import  java.sql.Connection;
import  java.sql.ResultSet;
import  java.sql.Statement;
import  java.sql.DriverManager;
public  class  HiveJdbcClient {
   private  static  String driverName =  "org.apache.hive.jdbc.HiveDriver" ;
   public  static  void  main(String[] args)  throws  SQLException {
     try  {
       Class.forName(driverName);
     catch  (ClassNotFoundException e) {
       e.printStackTrace();
       System.exit( 1 );
     }
     Connection con = DriverManager.getConnection( "jdbc:hive2://host:10000/cdnlog;principal=hdfs/host@KERBEROS_HADOOP" "ericni" "1234" );
     Statement stmt = con.createStatement();
     String tableName =  "dd_log" ;
     stmt.execute( "drop table if exists "  + tableName);
     String createSql =  "create table "  + tableName +  " (tt string) LOCATION 'hdfs://bipcluster/tmp/dd_log' " ;
     stmt.execute(createSql);
     System.out.println( "create table sql is"  + createSql);
   }
}

通过上面的sql,发现最终hdfs文件系统中对应文件夹的属组并不是ericni(由于开启了doas,页不会是hdfs),而是tgt的用户。

查看执行的调用结果:

在建立连接时,调用了DriverManager类的getConnection的方法。


1
2
3
4
5
6
7
8
9
10
11
12
13
14
public  static  Connection  getConnection(String url,
     String user, String password)  throws  SQLException {
     java.util.Properties info =  new  java.util.Properties();
     // Gets the classloader of the code that called this method, may
     // be null.
     ClassLoader callerCL = DriverManager.getCallerClassLoader();
     if  (user !=  null ) {
         info.put( "user" , user);     //调用java.util.Properties类的put方法,生成user的value
     }
     if  (password !=  null ) {
         info.put( "password" , password);   //生成password的value
     }
     return  (getConnection(url, info, callerCL));
}

然后调用org.apache.hive.jdbc.HiveConnection类

首先HiveConnection类的构造函数会解析传入的url参数和传入的设置。
并调用openTransport方法,传入参数为(uri, connParams.getHost(), connParams.getPort(), connParams.getSessionVars());
其中openTransport方法会判断是否是secure的方式
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
if  (!sessConf.containsKey(HIVE_AUTH_TYPE)
     || !sessConf.get(HIVE_AUTH_TYPE).equals(HIVE_AUTH_SIMPLE)){
   try  {
     if  (sessConf.containsKey(HIVE_AUTH_PRINCIPAL)) { 
       transport = KerberosSaslHelper.getKerberosTransport(
               sessConf.get(HIVE_AUTH_PRINCIPAL), host, transport);
     else  {
       String userName = sessConf.get(HIVE_AUTH_USER);
       if  ((userName ==  null ) || userName.isEmpty()) {
         userName = HIVE_ANONYMOUS_USER;
       }
       String passwd = sessConf.get(HIVE_AUTH_PASSWD);
       if  ((passwd ==  null ) || passwd.isEmpty()) {
         passwd = HIVE_ANONYMOUS_PASSWD;
       }
       transport = PlainSaslHelper.getPlainTransport(userName, passwd, transport);
     }
   catch  (SaslException e) {
     throw  new  SQLException( "Could not establish secure connection to "
               + uri +  ": "  + e.getMessage(),  " 08S01" );
   }
}
在上面的代码中,可以看到当sessConf中含有HIVE_AUTH_PRINCIPAL(即principal)关键字时,会调用KerberosSaslHelper类的getKerberosTransport方法,返回一个TTransport 对象,此时用户名和密码并不会传入,相反,传入的依次是principal,host和TTransport类。
关于在jdbc中怎么使用kerberos做用户的验证放在后面的文章中讲解。


本文转自菜菜光 51CTO博客,原文链接:http://blog.51cto.com/caiguangguang/1382877,如需转载请自行联系原作者
相关文章
|
2月前
|
SQL 分布式计算 DataWorks
DataWorks报错问题之集成hive数据源报错如何解决
DataWorks是阿里云提供的一站式大数据开发与管理平台,支持数据集成、数据开发、数据治理等功能;在本汇总中,我们梳理了DataWorks产品在使用过程中经常遇到的问题及解答,以助用户在数据处理和分析工作中提高效率,降低难度。
|
2月前
|
SQL 分布式计算 Java
Apache Hudi与Hive集成手册
Apache Hudi与Hive集成手册
86 0
|
4月前
|
SQL 数据可视化 数据挖掘
将Sqoop与Hive集成无缝的数据分析
将Sqoop与Hive集成无缝的数据分析
|
4月前
|
SQL 存储 分布式计算
Spark与Hive的集成与互操作
Spark与Hive的集成与互操作
|
5月前
|
SQL 存储 Apache
流数据湖平台Apache Paimon(四)集成 Hive 引擎
流数据湖平台Apache Paimon(四)集成 Hive 引擎
176 0
|
5月前
|
分布式计算 Hadoop Java
hadoop sdk 优化小结(裁剪、集成kerberos组件、定制等)
hadoop sdk 优化小结(裁剪、集成kerberos组件、定制等)
44 0
|
7月前
|
SQL 分布式计算 资源调度
大数据问题排查系列-大数据集群开启 kerberos 认证后 HIVE 作业执行失败
大数据问题排查系列-大数据集群开启 kerberos 认证后 HIVE 作业执行失败
|
8月前
|
SQL 分布式计算 分布式数据库
Hive集成Hue安装部署
Hive集成Hue安装部署
108 0
|
16天前
|
前端开发 Java 应用服务中间件
从零手写实现 tomcat-08-tomcat 如何与 springboot 集成?
该文是一系列关于从零开始手写实现 Apache Tomcat 的教程概述。作者希望通过亲自动手实践理解 Tomcat 的核心机制。文章讨论了 Spring Boot 如何实现直接通过 `main` 方法启动,Spring 与 Tomcat 容器的集成方式,以及两者生命周期的同步原理。文中还提出了实现 Tomcat 的启发,强调在设计启动流程时确保资源的正确加载和初始化。最后提到了一个名为 mini-cat(嗅虎)的简易 Tomcat 实现项目,开源于 [GitHub](https://github.com/houbb/minicat)。
|
17天前
|
前端开发 Java 应用服务中间件
从零手写实现 tomcat-08-tomcat 如何与 springboot 集成?
本文探讨了Spring Boot如何实现像普通Java程序一样通过main方法启动,关键在于Spring Boot的自动配置、内嵌Servlet容器(如Tomcat)以及`SpringApplication`类。Spring与Tomcat集成有两种方式:独立模式和嵌入式模式,两者通过Servlet规范、Spring MVC协同工作。Spring和Tomcat的生命周期同步涉及启动、运行和关闭阶段,通过事件和监听器实现。文章鼓励读者从实现Tomcat中学习资源管理和生命周期管理。此外,推荐了Netty权威指南系列文章,并提到了一个名为mini-cat的简易Tomcat实现项目。