Jdbc整合连接池

本文涉及的产品
云数据库 RDS MySQL,集群系列 2核4GB
推荐场景:
搭建个人博客
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
云数据库 RDS MySQL,高可用系列 2核4GB
简介: Jdbc整合连接池


Jdbc整合Druid

<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0"
         xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
         xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
    <modelVersion>4.0.0</modelVersion>
    <groupId>com.dashu</groupId>
    <artifactId>JdbcDriud</artifactId>
    <version>V1.0.1</version>
    <dependencies>
        <!--引入druid数据源-->
        <dependency>
            <groupId>com.alibaba</groupId>
            <artifactId>druid</artifactId>
            <version>1.1.8</version>
        </dependency>
        <!-- https://mvnrepository.com/artifact/mysql/mysql-connector-java -->
        <dependency>
            <groupId>mysql</groupId>
            <artifactId>mysql-connector-java</artifactId>
            <version>8.0.25</version>
        </dependency>
        <dependency>
            <groupId>junit</groupId>
            <artifactId>junit</artifactId>
            <version>4.12</version>
            <scope>test</scope>
        </dependency>
        <dependency>
            <groupId>junit</groupId>
            <artifactId>junit</artifactId>
            <version>4.12</version>
            <scope>compile</scope>
        </dependency>
    </dependencies>
</project>
package com.dashu.util;
import com.alibaba.druid.pool.DruidDataSourceFactory;
import javax.sql.DataSource;
import java.io.InputStream;
import java.sql.Connection;
import java.sql.PreparedStatement;
import java.sql.ResultSet;
import java.sql.SQLException;
import java.util.Properties;
/**
 * @Auther: DaShu
 * @Date: 2021/7/22 19:39
 * @Description:
 */
public class ConnUtil {
    private ConnUtil() {
    }
    private static DataSource dataSource;
    static {
        InputStream inStream = Thread.currentThread().getContextClassLoader().getResourceAsStream("dataSource.properties");
        Properties properties = new Properties();
        try {
            properties.load(inStream);
            dataSource = DruidDataSourceFactory.createDataSource(properties);
        } catch (Exception e) {
            e.printStackTrace();
        }
    }
    /*
     * @Target:获取连接
     * @Author: DaShu
     * @Date: 2021/7/22 19:55
     * @Result:
     */
    public static Connection getConnection() {
        try {
            return dataSource.getConnection();
        } catch (Exception e) {
            e.printStackTrace();
            throw new RuntimeException("获取数据库连接异常");
        }
    }
    /*
     * @Target:释放资源
     * @Author: DaShu
     * @Date: 2021/7/22 19:54
     * @Result:
     */
    public static void close(ResultSet rSet, PreparedStatement pStatement, Connection connection) {
        try {
            if (rSet != null) {
                rSet.close();
            }
        } catch (SQLException e) {
            e.printStackTrace();
        } finally {
            try {
                if (pStatement != null) {
                    pStatement.close();
                }
            } catch (SQLException e) {
                e.printStackTrace();
            } finally {
                try {
                    if (connection != null) {
                        connection.close();
                    }
                } catch (SQLException e) {
                    e.printStackTrace();
                }
            }
        }
    }
}
package com.dashu;
import com.dashu.util.ConnUtil;
import org.junit.Test;
import java.sql.*;
/**
 * @Auther: DaShu
 * @Date: 2021/7/22 20:00
 * @Description:
 */
public class crud {
    @Test
    public void test() throws SQLException {
        Connection conn = null;
        try{
            conn= ConnUtil.getConnection();//从连接池获取链接
            conn.setAutoCommit(false);//开启事务
            PreparedStatement statement = conn.prepareStatement("insert into tree (id,name,age) values(?,?,?)");
            statement.setInt(1,7);
            statement.setString(2,"张天爱");
            statement.setInt(3,90);
            Boolean result =statement.execute();
            PreparedStatement stat = conn.prepareStatement("update tree set name = ?,age = ?  where id = ?");
            stat.setString(1,"张晓霞");
            stat.setInt(2,89);
            stat.setInt(3,2);
            Boolean results =stat.execute();
            conn.commit();//提交的那一刻数据就已经更新了。
            conn.close();
        } catch (Exception e) {
            conn.rollback();
            e.printStackTrace();
        }
    }
}
driverClassName=com.mysql.jdbc.Driver
url=jdbc:mysql://127.0.0.1:3306/tree
username=root
password=root


相关实践学习
如何快速连接云数据库RDS MySQL
本场景介绍如何通过阿里云数据管理服务DMS快速连接云数据库RDS MySQL,然后进行数据表的CRUD操作。
全面了解阿里云能为你做什么
阿里云在全球各地部署高效节能的绿色数据中心,利用清洁计算为万物互联的新世界提供源源不断的能源动力,目前开服的区域包括中国(华北、华东、华南、香港)、新加坡、美国(美东、美西)、欧洲、中东、澳大利亚、日本。目前阿里云的产品涵盖弹性计算、数据库、存储与CDN、分析与搜索、云通信、网络、管理与监控、应用服务、互联网中间件、移动服务、视频服务等。通过本课程,来了解阿里云能够为你的业务带来哪些帮助 &nbsp; &nbsp; 相关的阿里云产品:云服务器ECS 云服务器 ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,助您降低 IT 成本,提升运维效率,使您更专注于核心业务创新。产品详情: https://www.aliyun.com/product/ecs
相关文章
|
3月前
|
存储 SQL 监控
5-6|jdbc连接池
5-6|jdbc连接池
|
6月前
|
监控 Java 数据库连接
Java一分钟之-JDBC连接池:HikariCP, Apache DBCP, C3P0
【6月更文挑战第14天】本文介绍了Java中常用的三种JDBC连接池——HikariCP、Apache DBCP和C3P0。HikariCP以其高性能和低延迟领先,适合高并发环境;Apache DBCP稳定易配置;C3P0则提供高度可定制选项。文章讨论了各连接池的常见问题及避免策略,如配置不当、连接泄露等,并给出示例代码以供参考。选择合适的连接池并正确配置能有效提升应用性能。
192 7
|
6月前
|
缓存 监控 druid
对比各大数据库连接池技术-Jdbc-Dbcp-C3p0-Druid-Hikaricp
对比各大数据库连接池技术-Jdbc-Dbcp-C3p0-Druid-Hikaricp
84 0
|
6月前
|
SQL druid Java
JDBC、C3P0、DBCP、Druid 数据源连接池使用的对比总结.md2
JDBC、C3P0、DBCP、Druid 数据源连接池使用的对比总结.md
38 0
|
6月前
|
SQL druid Java
JDBC、C3P0、DBCP、Druid 数据源连接池使用的对比总结.md1
JDBC、C3P0、DBCP、Druid 数据源连接池使用的对比总结.md
70 0
|
7月前
|
Java 数据库连接 数据库
JDBC连接池&JDBCTemplate课堂笔记
JDBC连接池&JDBCTemplate课堂笔记
70 1
|
druid 前端开发 Java
Spring boot整合<Mybatis【对JDBC的封装】>,Druid连接池
目录 文件目录层次和等级: 第二依赖: 第三配置文件: 第四创建文件:
139 0
Spring boot整合<Mybatis【对JDBC的封装】>,Druid连接池
|
监控 druid Java
JDBC 连接池 详解(通俗易懂)
JDBC 第五节 详解连接池 通俗易懂!
564 0
|
druid Java 数据库连接
使用JDBC实现增删改查(加入Druid德鲁伊连接池)
使用JDBC实现增删改查(加入Druid德鲁伊连接池)
237 0
|
druid Java 关系型数据库
【JDBC】使用连接池重写工具类
【JDBC】使用连接池重写工具类
187 0
【JDBC】使用连接池重写工具类