SpringBoot配置Druid

本文涉及的产品
云原生数据库 PolarDB MySQL 版,通用型 2核4GB 50GB
云原生数据库 PolarDB PostgreSQL 版,标准版 2核4GB 50GB
简介: SpringBoot配置Druid

1.新建一个springboot项目,建好之后别忘记yml中配置启动端口

#启动端口

server:

 port: 8088

配置好之后,验证看下是否正常,写个测试类

import org.springframework.web.bind.annotation.RequestMapping;
import org.springframework.web.bind.annotation.RestController;
 
@RestController
@RequestMapping("/test")
public class TestController {
    @RequestMapping("/helloWord")
    public String HelloWord(){
        System.out.println("hello java");
        return "hello java";
    }
}

2.启动项目

显示刚刚自己设置的端口号,启动成功,然后访问下看看是否正常

OK,启动和访问都没有问题。

3.引入对应的依赖包,版本的话看个人需求 我用的是2.2.4,数据库我用的是postgresql

 <parent>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-starter-parent</artifactId>
        <version>2.2.4.RELEASE</version>
        <relativePath/> <!-- lookup parent from repository -->
    </parent>
<dependency>
            <groupId>org.postgresql</groupId>
            <artifactId>postgresql</artifactId>
            <scope>runtime</scope>
        </dependency>
<!--引入druid starter-->
        <dependency>
            <groupId>com.alibaba</groupId>
            <artifactId>druid-spring-boot-starter</artifactId>
            <version>1.2.16</version>
        </dependency>
 
 <dependency>
            <groupId>com.alibaba</groupId>
            <artifactId>druid</artifactId>
            <version>1.2.16</version>
        </dependency>

4.配置application.yml

#启动端口
server:
  port: 8088
 
 
#druid细节配置可以写在yml中,也可以代码实现。我这版是代码实现的
 
spring:
  datasource:
    url: 连接地址
    username: 账号
    password: 密码
    driver-class-name: org.postgresql.Driver
    type: com.alibaba.druid.pool.DruidDataSource #切换为druid

5.配置DruidConfiguration

 
import com.alibaba.druid.filter.Filter;
import com.alibaba.druid.pool.DruidDataSource;
import com.alibaba.druid.support.http.StatViewServlet;
import com.alibaba.druid.support.http.WebStatFilter;
import com.alibaba.druid.wall.WallConfig;
import com.alibaba.druid.wall.WallFilter;
import lombok.extern.slf4j.Slf4j;
import org.springframework.boot.context.properties.ConfigurationProperties;
import org.springframework.boot.web.servlet.FilterRegistrationBean;
import org.springframework.boot.web.servlet.ServletRegistrationBean;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
 
import javax.sql.DataSource;
import java.sql.SQLException;
import java.util.*;
 
/**
 * SpringBoot配置Druid
 */
 
 
@Slf4j
@Configuration
public class DruidConfiguration {
 
    @ConfigurationProperties("spring.datasource")
    @Bean
    public DataSource druidDataSource() {
        DruidDataSource dataSource = new DruidDataSource();
        try {
            // 启动程序时,在连接池中初始化多少个连接(10-50已足够)
            dataSource.setInitialSize(50);
            // 回收空闲连接时,将保证至少有 minIdle 个连接(与 initialSize 相同)
            dataSource.setMinIdle(50);
            // 连接池中最多支持多少个活动会话
            dataSource.setMaxActive(10000);
            // 程序向连接池中请求连接时,超过 maxWait 的值后,认为本次请求失败,即连接池,没有可用连接,单位毫秒,设置 -1 时表示无限等待(建议值为100)
            dataSource.setMaxWait(100);
            /*
                缓存通过以下两个方法发起的 SQL:
                public PreparedStatement prepareStatement(String sql)
                public PreparedStatement prepareStatement(String sql, int resultSetType, int resultSetConcurrency)
                (建议值为 true)
             */
            dataSource.setPoolPreparedStatements(true);
            // 每个连接最多缓存多少个 SQL(建议值为 20)
            dataSource.setMaxPoolPreparedStatementPerConnectionSize(20);
            // 检查空闲连接的频率,单位毫秒,非正整数时表示不进行检查(建议值:2000)
            dataSource.setTimeBetweenEvictionRunsMillis(2000);
            // 连接池中某个连接的空闲时长达到 N 毫秒后, 连接池在下次检查空闲连接时,将回收该连接,要小于防火墙超时设置 net.netfilter.nf_conntrack_tcp_timeout_established 的设置
            dataSource.setMinEvictableIdleTimeMillis(600000);
            // 配置一个连接在池中最大生存的时间,单位是毫秒
            dataSource.setMaxEvictableIdleTimeMillis(900000);
            // 程序没有 close 连接且空闲时长超过 minEvictableIdleTimeMillis,则会执行 validationQuery 指定的 SQL,以保证该程序连接不会池 kill 掉,其范围不超过 minIdle 指定的连接个数(建议值为 true)
            dataSource.setKeepAlive(true);
            // 检查池中的连接是否仍可用的 SQL 语句,druid 会连接到数据库执行该 SQL,如果正常返回,则表示连接可用,否则表示连接不可用
            dataSource.setValidationQuery("SELECT 1");
            // 当程序请求连接,池在分配连接时,是否先检查该连接是否有效(高效,并且保证安全性;建议值为 true)
            dataSource.setTestWhileIdle(true);
            // 程序申请连接时,进行连接有效性检查(低效,影响性能;建议值为 false)
            dataSource.setTestOnBorrow(false);
            // 程序返还连接时,进行连接有效性检查(低效,影响性能;建议值为 false)
            dataSource.setTestOnReturn(false);
            // 物理连接初始化的时候执行的 sql
//            Collection<String> connectionInitSqls = new ArrayList<>(10);
//            connectionInitSqls.add("SELECT 1 FROM DUAL");
//            dataSource.setConnectionInitSqls(connectionInitSqls);
            /*
                这里配置的是插件,常用的插件有:
                监控统计:stat
                日志监控:log4j2
                防御 SQL 注入:wall
             */
            dataSource.setFilters("stat,log4j2");
            // 是否合并多个 DruidDataSource 的监控数据
            dataSource.setUseGlobalDataSourceStat(true);
            // 监控统计
            // 是否启用慢 SQL 记录
            dataSource.addConnectionProperty("druid.stat.logSlowSql", "true");
            // 执行时间超过 slowSqlMillis 的就是慢,单位毫秒(建议值 500)
            dataSource.addConnectionProperty("druid.stat.slowSqlMillis", "500");
            // 要求程序从池中 get 到连接后,N 秒后必须 close,否则 druid 会强制回收该连接,不管该连接中是活动还是空闲,以防止进程不会进行 close 而霸占连接(建议值为 false,当发现程序有未正常 close 连接时设置为 true)
//            dataSource.setRemoveAbandoned(false);
            // 设置 druid 强制回收连接的时限,当程序从池中 get 到连接开始算起,超过此值后,druid将强制回收该连接,单位秒(应大于业务运行最长时间)
//            dataSource.setRemoveAbandonedTimeout();
            // 当 druid 强制回收连接后,是否将 stack trace 记录到日志中(建议值为 true)
//            dataSource.setLogAbandoned(true);
            // 连接属性。比如设置一些连接池统计方面的配置 druid.stat.mergeSql=true;druid.stat.slowSqlMillis=5000
//            dataSource.setConnectProperties();
 
            // 防御 SQL 注入
            WallFilter wallFilter = new WallFilter();
            WallConfig config = new WallConfig();
            // 是否允许执行 DELETE 语句(建议值为 false)
            config.setDeleteAllow(false);
            // 是否允许删除表(建议值为 false)
            config.setDropTableAllow(false);
            wallFilter.setConfig(config);
 
            // 插件代理
            List<Filter> proxyFilters = new ArrayList<>(10);
            proxyFilters.add(wallFilter);
            dataSource.setProxyFilters(proxyFilters);
 
        } catch (SQLException e) {
            log.error(e.toString());
        }
        return dataSource;
    }
 
    @Bean
    public ServletRegistrationBean<StatViewServlet> statViewServlet() {
        // 监控信息显示页面
        StatViewServlet statViewServlet = new StatViewServlet();
        // 访问监控信息显示页面的 url 路径(建议值为 /druid/* )
        String urlPattern = "/druid/*";
 
        ServletRegistrationBean<StatViewServlet> bean = new ServletRegistrationBean<>(statViewServlet, urlPattern);
 
        Map<String, String> initParams = new HashMap<>();
        // 是否允许清空统计数据
        initParams.put("resetEnable", "false");
        // 登录监控信息显示页面的用户名
        initParams.put("loginUsername", "admin");
        // 登录监控信息显示页面的密码
        initParams.put("loginPassword", "admin");
        // 允许访问控制(格式:ip地址、ip地址/子网掩码位数)逗号分隔多个地址
        initParams.put("allow", "127.0.0.1");
        // 拒绝访问控制(格式:ip地址、ip地址/子网掩码位数)逗号分隔多个地址
//        initParams.put("deny", "");
 
        bean.setInitParameters(initParams);
        return bean;
    }
 
    @Bean
    public FilterRegistrationBean<WebStatFilter> webStatFilter() {
        FilterRegistrationBean<WebStatFilter> bean = new FilterRegistrationBean<>();
        // 网络监控过滤器(用于采集 web-jdbc 关联监控的数据)
        bean.setFilter(new WebStatFilter());
        // 过滤所有的 url 路径
        Collection<String> urlPatterns = new ArrayList<>();
        urlPatterns.add("/*");
        bean.setUrlPatterns(urlPatterns);
 
        Map<String, String> initParams = new HashMap<>();
        // 排除不必要采集的 url 路径,以逗号“,”分割
        initParams.put("exclusions", "*.js,*.gif,*.jpg,*.png,*.css,*.ico,*.map,/druid/*");
        // 是否使用 session 监控功能
        initParams.put("sessionStatEnable", "true");
        // 是否使用 session 监控最大数量(默认是1000)
        initParams.put("sessionStatMaxCount", "1000");
        // 使得 druid 能够知道当前的 session 的用户是谁,根据需要,把改值修改为你 user 信息保存在 session 中的 sessionName
        initParams.put("principalSessionName", "session_user_key");
        // 如果你的 user 信息保存在 cookie 中,你可以配置 principalCookieName,使得 druid 知道当前的 user 是谁,根据需要,把该值修改为你 user 信息保存在 cookie 中的 cookieName
        initParams.put("principalCookieName", "cookie_user_key");
        // 是否监控单个 url 调用的 sql 列表
        initParams.put("profileEnable", "true");
        bean.setInitParameters(initParams);
        return bean;
    }
}

6.验证下连接数据库是否正常

新建表,写入数据(这些我就不一一阐述了)。同学们可以自己操作下。

我的项目结构

我找了一张表,写一个Controller我们查下看看是否可以正常查询

 
 
import com.yun.greedy.modules.staff.entity.yUser;
import com.yun.greedy.modules.staff.service.StaffService;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.web.bind.annotation.RequestMapping;
import org.springframework.web.bind.annotation.RestController;
 
import java.util.List;
 
@RestController
@RequestMapping("/staff")
public class StaffController {
 
    @Autowired
    private StaffService staffService;
 
    @RequestMapping("/list")
    public String list() {
        List<yUser> list = staffService.getBaseMapper().selectList(null);
        list.forEach(System.out::println);
        return "查询完成";
    }
}

验证连接数据库查询成功!

7.查看Druid的监控信息

登录此地址http://localhost:8088/druid/login.html

账号密码是ServletRegistrationBean中的配置admin        admin

登录成功之后就可以查看各种的监控信息了

对于Druid连接池自带的监控,主要包括以下几个方面:

监控数据统计:Druid连接池内置了丰富的监控指标,可以统计连接池的使用情况、连接池的性能指标、SQL执行情况等。通过Druid的监控数据统计,可以方便地了解连接池的状态和性能。

SQL监控:Druid连接池可以记录SQL执行的详细信息,包括SQL语句、执行时间、执行结果等。通过Druid的SQL监控,可以方便地分析和优化SQL语句的性能。

防火墙功能:Druid连接池内置了防火墙功能,可以对SQL进行实时的监控和过滤,防止恶意的SQL攻击。

监控界面:Druid连接池提供了一个Web界面,可以直观地查看连接池的状态和性能指标,方便进行监控和管理。

好了,到这里就是完成了,有兴趣的同学可以自己尝试一下呃。更强大的功能可以参考下官网


相关实践学习
使用PolarDB和ECS搭建门户网站
本场景主要介绍基于PolarDB和ECS实现搭建门户网站。
阿里云数据库产品家族及特性
阿里云智能数据库产品团队一直致力于不断健全产品体系,提升产品性能,打磨产品功能,从而帮助客户实现更加极致的弹性能力、具备更强的扩展能力、并利用云设施进一步降低企业成本。以云原生+分布式为核心技术抓手,打造以自研的在线事务型(OLTP)数据库Polar DB和在线分析型(OLAP)数据库Analytic DB为代表的新一代企业级云原生数据库产品体系, 结合NoSQL数据库、数据库生态工具、云原生智能化数据库管控平台,为阿里巴巴经济体以及各个行业的企业客户和开发者提供从公共云到混合云再到私有云的完整解决方案,提供基于云基础设施进行数据从处理、到存储、再到计算与分析的一体化解决方案。本节课带你了解阿里云数据库产品家族及特性。
相关文章
|
2月前
|
SQL 监控 druid
springboot-druid数据源的配置方式及配置后台监控-自定义和导入stater(推荐-简单方便使用)两种方式配置druid数据源
这篇文章介绍了如何在Spring Boot项目中配置和监控Druid数据源,包括自定义配置和使用Spring Boot Starter两种方法。
|
5天前
|
Java 开发者 微服务
手写模拟Spring Boot自动配置功能
【11月更文挑战第19天】随着微服务架构的兴起,Spring Boot作为一种快速开发框架,因其简化了Spring应用的初始搭建和开发过程,受到了广大开发者的青睐。自动配置作为Spring Boot的核心特性之一,大大减少了手动配置的工作量,提高了开发效率。
22 0
|
1月前
|
Java API 数据库
构建RESTful API已经成为现代Web开发的标准做法之一。Spring Boot框架因其简洁的配置、快速的启动特性及丰富的功能集而备受开发者青睐。
【10月更文挑战第11天】本文介绍如何使用Spring Boot构建在线图书管理系统的RESTful API。通过创建Spring Boot项目,定义`Book`实体类、`BookRepository`接口和`BookService`服务类,最后实现`BookController`控制器来处理HTTP请求,展示了从基础环境搭建到API测试的完整过程。
42 4
|
1月前
|
Java 数据库连接 Maven
springBoot:项目建立&配置修改&yaml的使用&resource 文件夹(二)
本文档介绍了如何创建一个基于Maven的项目,并配置阿里云仓库、数据库连接、端口号、自定义启动横幅及多环境配置等。同时,详细说明了如何使用YAML格式进行配置,以及如何处理静态资源和模板文件。文档还涵盖了Spring Boot项目的`application.properties`和`application.yaml`文件的配置方法,包括设置数据库驱动、URL、用户名、密码等关键信息,以及如何通过配置文件管理不同环境下的应用设置。
|
30天前
|
Java API 数据库
Spring Boot框架因其简洁的配置、快速的启动特性及丰富的功能集而备受开发者青睐
本文通过在线图书管理系统案例,详细介绍如何使用Spring Boot构建RESTful API。从项目基础环境搭建、实体类与数据访问层定义,到业务逻辑实现和控制器编写,逐步展示了Spring Boot的简洁配置和强大功能。最后,通过Postman测试API,并介绍了如何添加安全性和异常处理,确保API的稳定性和安全性。
36 0
|
10天前
|
缓存 IDE Java
SpringBoot入门(7)- 配置热部署devtools工具
SpringBoot入门(7)- 配置热部署devtools工具
22 2
 SpringBoot入门(7)- 配置热部署devtools工具
|
8天前
|
Java 数据库连接
SpringBoot配置多数据源实战
第四届光学与机器视觉国际学术会议(ICOMV 2025) 2025 4th International Conference on Optics and Machine Vision
36 8
|
6天前
|
Java 数据库连接 数据库
springboot启动配置文件-bootstrap.yml常用基本配置
以上是一些常用的基本配置项,在实际应用中可能会根据需求有所变化。通过合理配置 `bootstrap.yml`文件,可以确保应用程序在启动阶段加载正确的配置,并顺利启动运行。
12 2
|
17天前
|
Java Spring 容器
SpringBoot读取配置文件的6种方式,包括:通过Environment、@PropertySource、@ConfigurationProperties、@Value读取配置信息
SpringBoot读取配置文件的6种方式,包括:通过Environment、@PropertySource、@ConfigurationProperties、@Value读取配置信息
43 3
|
28天前
|
druid Java Maven