HIVE JDBC连接详解

简介: package org.conan.myhadoop.mr;import java.sql.Connection;import java.sql.DriverManager;import java.sql.ResultSet;import java.sql.SQLException;import java.sql.Statement;public class HiveJDBC


package org.conan.myhadoop.mr;

import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.ResultSet;
import java.sql.SQLException;
import java.sql.Statement;

public class HiveJDBCConnection {

    private static String driverName = "org.apache.hadoop.hive.jdbc.HiveDriver";
    // Hive 0.11.0版本以后org.apache.hive.jdbc.HiveDriver
    private static String url = "jdbc:hive://localhost:10000/default";
    // Hive 0.11.0版本以后jdbc:hive2://localhost:10000/default
    private static String userName = "";
    private static String passWord = "";

    public static void main(String[] args) {
        try {
            Class.forName(driverName);
            Connection con = DriverManager.getConnection("url", "userName",
                    "passWord");
            Statement stmt = con.createStatement();
            // 如果存在了就删除
            String tableName = "jdbc_table";
            String sql = "drop table if exists " + tableName;
            stmt.execute(sql);
            // 创建表
            sql = "create table"
                    + tableName
                    + " (key string,value string) row format delimited fields terminated by ','  stored as textfile ";
            stmt.execute(sql);
            //加载数据
            String Path="/home/hive_1.txt";
            sql ="load data local inpath '"+Path+"' into table "+tableName;
            stmt.execute(sql);
            // 查询数据
            sql ="select * from "+tableName;
            ResultSet res = stmt.executeQuery(sql);
            while(res.next()){
                System.out.println(res.getString(1)+"\t"+res.getString(1));
                
            }
            
        } catch (ClassNotFoundException e) {
            System.out.println("没有找到驱动类");
            e.printStackTrace();
        } catch (SQLException e) {
            System.out.println("连接Hive的信息有问题");
            e.printStackTrace();
        }

    }
}

上面是用Java连接HiveServer,而HiveServer本身存在很多问题(比如:安全性、并发性等);针对这些问题,Hive0.11.0版本提供了一个全新的服务:HiveServer2,这个很好的解决HiveServer存在的安全性、并发性等问题。

上面的userName和passWord是hive元数据mysql的用户名和密码


Use Cases: Hive CLI versus Beeline

The following section focuses on the common uses of Hive CLI/HiveServer1 and how you can migrate to Beeline/HiveServer2 in each case.

http://blog.cloudera.com/blog/2014/02/migrating-from-hive-cli-to-beeline-a-primer/?utm_source=tuicool&utm_medium=referral


参考文章:

http://www.iteblog.com/archives/846


本文出自 “点滴积累” 博客,请务必保留此出处http://tianxingzhe.blog.51cto.com/3390077/1698639

目录
相关文章
|
7天前
|
安全 Java 数据库连接
gbase8a JDBC常用特性-Kerberos认证方式连接
JDBC常用特性-Kerberos认证方式连接
|
8天前
|
Java 数据库连接 网络安全
JDBC常用特性-SSH隧道连接
JDBC常用特性-SSH隧道连接
|
4月前
|
Java 数据库连接
JDBC连接复习
JDBC连接复习
44 1
|
2月前
|
SQL 分布式计算 Java
大数据-96 Spark 集群 SparkSQL Scala编写SQL操作SparkSQL的数据源:JSON、CSV、JDBC、Hive
大数据-96 Spark 集群 SparkSQL Scala编写SQL操作SparkSQL的数据源:JSON、CSV、JDBC、Hive
53 0
|
2月前
|
SQL 分布式计算 关系型数据库
Hadoop-24 Sqoop迁移 MySQL到Hive 与 Hive到MySQL SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
Hadoop-24 Sqoop迁移 MySQL到Hive 与 Hive到MySQL SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
97 0
|
3月前
|
SQL 分布式计算 JavaScript
Hive的JOIN连接
Hive的JOIN连接
59 5
|
4月前
|
SQL Java 数据库连接
Java开发者必知:JDBC连接数据库的“三大法宝”
Java开发者必知:JDBC连接数据库的“三大法宝”
41 7
|
4月前
|
SQL Java 数据库连接
JDBC连接SQL Server2008 完成增加、删除、查询、修改等基本信息基本格式及示例代码
这篇文章提供了使用JDBC连接SQL Server 2008数据库进行增加、删除、查询和修改操作的基本步骤和示例代码。
|
4月前
|
SQL 存储 Java
完整java开发中JDBC连接数据库代码和步骤
该博客文章详细介绍了使用JDBC连接数据库的完整步骤,包括加载JDBC驱动、提供连接URL、创建数据库连接、执行SQL语句、处理结果以及关闭JDBC对象的过程,并提供了相应的示例代码。
|
4月前
|
Java 关系型数据库 MySQL
使用JDBC连接ADB
【8月更文挑战第6天】
153 0