开发者社区> 问答> 正文

druid能否作为Hive的连接池

在连接Hive时,能否使用druid作为Hive的连接池配置使用,和关系型数据库一样可以正常使用,非常感谢您的帮助!!!

原提问者GitHub用户Fly365

展开
收起
山海行 2023-07-05 22:01:07 227 0
3 条回答
写回答
取消 提交回答
  • 北京阿里云ACE会长

    Apache Druid是一种分布式、实时的数据存储和查询系统,其主要用途是存储和查询大规模的实时数据。而Apache Hive是一种基于Hadoop的数据仓库工具,用于在大规模数据集上进行数据查询和分析。

    在理论上,Apache Druid是可以作为Apache Hive的连接池使用的。Apache Hive支持使用JDBC连接池管理器来管理JDBC连接,可以通过配置Hive的JDBC连接池来实现与Druid的连接。

    2023-07-29 23:23:09
    赞同 展开评论 打赏
  • 可以啊,符合jdbc规范的就可以

    原回答者GitHub用户wenshao

    2023-07-06 12:31:33
    赞同 展开评论 打赏
  • Druid 数据源是一个高效可靠的 Java 数据库连接池,它可以连接各种类型的数据库。在使用 Druid 数据源时,可以通过配置文件的方式,灵活设置数据源的各种参数,例如最大连接数、最小连接数、空闲连接时长等。

    Hive 是一个数据仓库工具,它可以将数据存储在 Hadoop 分布式文件系统中,并提供 SQL 视图和查询功能。它通常使用 JDBC 驱动程序与其他应用程序进行集成。

    回答您的问题,是的,您可以使用 Druid 数据源作为 Hive 的连接池来管理 Hive 数据库的连接。不过,需要注意的是,因为 Hive 与传统的关系型数据库不同,它在连接池和事务管理方面的需求也有所不同。

    另外,需要注意的是,Hive 的 JDBC 驱动程序需要支持 Hadoop 的版本和 Hive 的版本。因此,您需要选择对应版本的 JDBC 驱动程序,并在 Druid 数据源的配置文件中指定相应的驱动程序。

    下面是一个使用 Druid 数据源连接 Hive 数据库的示例(需要使用对应版本的 Hive JDBC 驱动程序):

    DruidDataSource dataSource = new DruidDataSource();
    dataSource.setUrl("jdbc:hive2://<Hive Server 2 Host>:<Hive Server 2 Port>/<Database Name>");
    dataSource.setDriverClassName("org.apache.hive.jdbc.HiveDriver");
    dataSource.setUsername("<Username>");
    dataSource.setPassword("<Password>");
    
    // 如果需要设置连接池参数,可以在这里进行设置
    
    Connection connection = dataSource.getConnection();
    
    // 使用连接进行数据操作
    
    connection.close();
    

    Druid 数据源可以作为 Hive 的连接池,您可以根据实际需要,通过相应的配置实现连接的高效管理。

    2023-07-06 09:16:23
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Hive Bucketing in Apache Spark 立即下载
spark替代HIVE实现ETL作业 立即下载
2019大数据技术公开课第五季—Hive迁移到MaxCompute最佳实践 立即下载