Hutool创建数据源工厂动态查询不同数据库不同数据表的数据

简介: Hutool创建数据源工厂动态查询不同数据库不同数据表的数据

 Hutoll简介:

Hutool是一个小而全的Java工具类库,通过静态方法封装,降低相关API的学习成本,提高工作效率,使Java拥有函数式语言般的优雅,让Java语言也可以“甜甜的”。

Hutool中的工具方法来自每个用户的精雕细琢,它涵盖了Java开发底层代码中的方方面面,它既是大型项目开发中解决小问题的利器,也是小型项目中的效率担当;

Hutool网站:

Hutool🍬一个功能丰富且易用的Java工具库,涵盖了字符串、数字、集合、编码、日期、文件、IO、加密、数据库JDBC、JSON、HTTP客户端等功能。

业务需求:

需要我去通过各种不同的id找到不同的表,最后的重点是通过数据库表里存的连接信息,用户名和密码去指定数据库类型(比如MySql、DM等)数据库做链接然后找到对应数据表里的所有信息。

image.gif 编辑

image.gif 编辑

pom文件增加Hutool依赖

<!-- hutool依赖 -->

<dependency>

   <groupId>cn.hutool</groupId>

   <artifactId>hutool-all</artifactId>

   <version>5.8.25</version>

</dependency>

代码

/**
     * @Title: getDataPreview
     * @Description: 数据资产拿到数据库的数据
     * @author: sxy
     * @date 2025-02-20
     * @return ResultData
     */
    @PostMapping(value = "/getDataPreview")
    public ResultData getDataPreview(Long code) throws SQLException {
        //通过code找到med_data_dictory表的dd_scheme_id
        if (code == null) {
            return ResultData.error(ResultData.PARAM_ERROR_CODE, "参数错误");
        }
        DataDictoryDto dataDictory = dataDictoryMapper.getInfo(code);
        Long schemeId = dataDictory.getSchemaId();
        //获取数据库表名字
        String tableName = dataDictory.getTableName();
        //通过dd_scheme_id找到med_data_scheme表的ds_pk_id
        DataSchema dataSchema = dataSchemaMapper.selectById(schemeId);
        //获取数据源id
        Long dataBaseSourceId = dataSchema.getDsDatabaseId();
        //通过ds_pk_id去和云平台的ma_dataBase_source表的id去匹配拿到数据库的链接
        //通过数据源id去云平台ma_dataBase_source表里找数据
        JSONObject manageDataSource = cloudFlowUtil.getManageDataSource(dataBaseSourceId);
        MaDataSourceDto maDataSourceDto = new MaDataSourceDto();
        if (manageDataSource.getInteger("code") == 20000) {
            maDataSourceDto=JSONObject.parseObject(manageDataSource.getString("data"), MaDataSourceDto.class);
        }
        String dbType = maDataSourceDto.getDbType();
        String url = maDataSourceDto.getUrl();
        String userName = maDataSourceDto.getUserName();
        String password = maDataSourceDto.getPassword();
        String driverClassName = maDataSourceDto.getDriverClassName();
        //引入hutool工具包创建数据源对象
        DruidDataSource ds = new DruidDataSource();
        //判断数据库类型是否为MySql
        if (dbType.equals("MySql")){
            ds.setUrl(url);
            ds.setUsername(userName);
            ds.setPassword(password);
            ds.setDriverClassName(driverClassName);
            Connection conn = ds.getConnection();
            //查询数据
            List<Entity> entityList = SqlExecutor.query(conn, "select * from " + tableName , new EntityListHandler());
            return ResultData.success("ok",entityList);
        }else if (dbType.equals("DM")){
            //判断数据库类型是否为达梦数据库
            ds.setUrl(url);
            ds.setUsername(userName);
            ds.setPassword(password);
            ds.setDriverClassName(driverClassName);
            Connection conn = ds.getConnection();
            //查询数据
            List<Entity> entityList = SqlExecutor.query(conn, "select * from " + tableName , new EntityListHandler());
            return ResultData.success("ok",entityList);
        }else if(dbType.equals("Oracle")){
            //判断数据库类型是否为Oracle数据库
            ds.setUrl(url);
            ds.setUsername(userName);
            ds.setPassword(password);
            ds.setDriverClassName(driverClassName);
            Connection conn = ds.getConnection();
            //查询数据
            List<Entity> entityList = SqlExecutor.query(conn, "select * from " + tableName , new EntityListHandler());
            return ResultData.success("ok",entityList);
        }else if (dbType.equals("Marinadb")){
            //判断数据库类型是否为Marinadb数据库
            ds.setUrl(url);
            ds.setUsername(userName);
            ds.setPassword(password);
            ds.setDriverClassName(driverClassName);
            Connection conn = ds.getConnection();
            //查询数据
            List<Entity> entityList = SqlExecutor.query(conn, "select * from " + tableName , new EntityListHandler());
            return ResultData.success("ok",entityList);
        }else if (dbType.equals("SQLServer")){
            //判断数据库类型是否为SQLServer数据库
            ds.setUrl(url);
            ds.setUsername(userName);
            ds.setPassword(password);
            ds.setDriverClassName(driverClassName);
            Connection conn = ds.getConnection();
            //查询数据
            List<Entity> entityList = SqlExecutor.query(conn, "select * from " + tableName , new EntityListHandler());
            return ResultData.success("ok",entityList);
        }else if (dbType.equals("PostgreSQL")){
            //判断数据库类型是否为PostgreSQL数据库
            ds.setUrl(url);
            ds.setUsername(userName);
            ds.setPassword(password);
            ds.setDriverClassName(driverClassName);
            Connection conn = ds.getConnection();
            //查询数据
            List<Entity> entityList = SqlExecutor.query(conn, "select * from " + tableName , new EntityListHandler());
            return ResultData.success("ok",entityList);
        }else if (dbType.equals("瀚高")){
            //判断数据库类型是否为瀚高数据库
            ds.setUrl(url);
            ds.setUsername(userName);
            ds.setPassword(password);
            ds.setDriverClassName(driverClassName);
            Connection conn = ds.getConnection();
            //查询数据
            List<Entity> entityList = SqlExecutor.query(conn, "select * from " + tableName , new EntityListHandler());
            return ResultData.success("ok",entityList);
        }else if (dbType.equals("Hive")){
            //判断数据库类型是否为Hive数据库
            ds.setUrl(url);
            ds.setUsername(userName);
            ds.setPassword(password);
            ds.setDriverClassName(driverClassName);
            Connection conn = ds.getConnection();
            //查询数据
            List<Entity> entityList = SqlExecutor.query(conn, "select * from " + tableName , new EntityListHandler());
            return ResultData.success("ok",entityList);
        }
        return ResultData.success("ok");
    }

image.gif

cloudFlowUtil:


public JSONObject getManageDataSource(Long code) {
        HttpHeaders headers = new HttpHeaders();
        headers.setContentType(MediaType.APPLICATION_JSON);
        headers.add(StpUtil.getTokenName(), StpUtil.getTokenValue());
        ResponseEntity<String> postForEntity = restTemplate.postForEntity(
                BASE_URL + "maDataSource/getInfoDataAsset?code=" + code, headers, String.class);
        JSONObject reData = JSONObject.parseObject(postForEntity.getBody());
        return reData;
    }

image.gif

返回数据:

image.gif 编辑

image.gif 编辑


目录
相关文章
|
2月前
|
存储 JSON 关系型数据库
【干货满满】解密 API 数据解析:从 JSON 到数据库存储的完整流程
本文详解电商API开发中JSON数据解析与数据库存储的全流程,涵盖数据提取、清洗、转换及优化策略,结合Python实战代码与主流数据库方案,助开发者构建高效、可靠的数据处理管道。
|
14天前
|
人工智能 Java 关系型数据库
使用数据连接池进行数据库操作
使用数据连接池进行数据库操作
63 11
|
1月前
|
存储 数据管理 数据库
数据字典是什么?和数据库、数据仓库有什么关系?
在数据处理中,你是否常困惑于字段含义、指标计算或数据来源?数据字典正是解答这些问题的关键工具,它清晰定义数据的名称、类型、来源、计算方式等,服务于开发者、分析师和数据管理者。本文详解数据字典的定义、组成及其与数据库、数据仓库的关系,助你夯实数据基础。
数据字典是什么?和数据库、数据仓库有什么关系?
|
5月前
|
存储 缓存 数据库
数据库数据删除策略:硬删除vs软删除的最佳实践指南
在项目开发中,“删除”操作常见但方式多样,主要分为硬删除与软删除。硬删除直接从数据库移除数据,操作简单、高效,但不可恢复;适用于临时或敏感数据。软删除通过标记字段保留数据,支持恢复和审计,但增加查询复杂度与数据量;适合需追踪历史或可恢复的场景。两者各有优劣,实际开发中常结合使用以满足不同需求。
416 4
|
1月前
|
存储 关系型数据库 数据库
【赵渝强老师】PostgreSQL数据库的WAL日志与数据写入的过程
PostgreSQL中的WAL(预写日志)是保证数据完整性的关键技术。在数据修改前,系统会先将日志写入WAL,确保宕机时可通过日志恢复数据。它减少了磁盘I/O,提升了性能,并支持手动切换日志文件。WAL文件默认存储在pg_wal目录下,采用16进制命名规则。此外,PostgreSQL提供pg_waldump工具解析日志内容。
147 0
|
3月前
|
存储 SQL Java
数据存储使用文件还是数据库,哪个更合适?
数据库和文件系统各有优劣:数据库读写性能较低、结构 rigid,但具备计算能力和数据一致性保障;文件系统灵活易管理、读写高效,但缺乏计算能力且无法保证一致性。针对仅需高效存储与灵活管理的场景,文件系统更优,但其计算短板可通过开源工具 SPL(Structured Process Language)弥补。SPL 提供独立计算语法及高性能文件格式(如集文件、组表),支持复杂计算与多源混合查询,甚至可替代数据仓库。此外,SPL 易集成、支持热切换,大幅提升开发运维效率,是后数据库时代文件存储的理想补充方案。
|
6月前
|
数据库 Python
【YashanDB知识库】python驱动查询gbk字符集崖山数据库CLOB字段,数据被驱动截断
【YashanDB知识库】python驱动查询gbk字符集崖山数据库CLOB字段,数据被驱动截断
|
5月前
|
人工智能 关系型数据库 分布式数据库
让数据与AI贴得更近,阿里云瑶池数据库系列产品焕新升级
4月9日阿里云AI势能大会上,阿里云瑶池数据库发布重磅新品及一系列产品能力升级。「推理加速服务」Tair KVCache全新上线,实现KVCache动态分层存储,显著提高内存资源利用率,为大模型推理降本提速。
|
6月前
|
SQL Java 数据库连接
【YashanDB数据库】由于网络带宽不足导致的jdbc向yashandb插入数据慢
由于网络带宽不足导致的jdbc向yashandb插入数据慢