Apache-DBUtils实现CRUD操作

简介: Apache-DBUtils实现CRUD操作

Apache-DBUtils简介

commons-dbutils 是 Apache 组织提供的一个开源 JDBC工具类库,它是对JDBC的简单封装,学习成本极低, 并且使用dbutils能极大简化jdbc编码的工作量,同时也不会影响程序的性能。

API介绍:

org.apache.commons.dbutils.QueryRunner org.apache.commons.dbutils.ResultSetHandler

工具类:org.apache.commons.dbutils.DbUtils API包说明:

048b21d0e4a7462db51b0fd017d11620.png

dbe9ab7cc9ed4e529fa79fa438ce63f2.png

主要API的使用

DbUtils


DbUtils :提供如关闭连接、装载JDBC驱动程序等常规工作的工具类,里面的所有方法都是静态的。主要方法 如下:


public static void close(…) throws java.sql.SQLException: DbUtils类提供了三个重载的关闭方 法。这些方法检查所提供的参数是不是NULL,如果不是的话,它们就关闭Connection、Statement和ResultSet。


public static void closeQuietly(…): 这一类方法不仅能在Connection、Statement和ResultSet为NULL情 况下避免关闭,还能隐藏一些在程序中抛出的SQLEeception。


public static void commitAndClose(Connection conn)throws SQLException: 用来提交连接的事务, 然后关闭连接


public static void commitAndCloseQuietly(Connection conn): 用来提交连接,然后关闭连接,并且在 关闭连接时不抛出SQL异常。


public static void rollback(Connection conn)throws SQLException:允许conn为null,因为方法内部做 了判断


public static void rollbackAndClose(Connection conn)throws SQLException rollbackAndCloseQuietly(Connection)


public static boolean loadDriver(java.lang.String driverClassName):这一方装载并注册JDBC驱动程 序,如果成功就返回true。使用该方法,你不需要捕捉这个异常ClassNotFoundException。


QueryRunner

该类简单化了SQL查询,它与ResultSetHandler组合在一起使用可以完成大部分的数据库操作,能够大大减少 编码量。


QueryRunner类提供了两个构造器: 默认的构造器 需要一个 javax.sql.DataSource 来作参数的构造器


QueryRunner类的主要方法: 更新


public int update(Connection conn, String sql, Object... params) throws SQLException:用来执行 一个更新(插入、更新或删除)操作。


......


插入


public T insert(Connection conn,String sql,ResultSetHandler rsh, Object... params) throws SQLException:只支持INSERT语句,其中 rsh - The handler used to create the result object from the ResultSet of auto-generated keys. 返回值: An object generated by the handler.即自动生成的 键值


....


批处理


public int[] batch(Connection conn,String sql,Object[][] params)throws SQLException: INSERT, UPDATE, or DELETE语句


public T insertBatch(Connection conn,String sql,ResultSetHandler rsh,Object[][] params)throws SQLException:只支持INSERT语句


.....


查询


public Object query(Connection conn, String sql, ResultSetHandler rsh,Object... params) throws SQLException:执行一个查询操作,在这个查询中,对象数组中的每个元素值被用来作为查询语句 的置换参数。该方法会自行处理 PreparedStatement 和 ResultSet 的创建和关闭。


测试  

// 测试添加
@Test
public void testInsert() throws Exception {
 QueryRunner runner = new QueryRunner();
 Connection conn = JDBCUtils.getConnection3();
 String sql = "insert into customers(name,email,birth)values(?,?,?)";
 int count = runner.update(conn, sql, "何成飞", "he@qq.com", "1992-09-08");
 System.out.println("添加了" + count + "条记录");
 JDBCUtils.closeResource(conn, null);
}
// 测试删除
@Test
public void testDelete() throws Exception {
 QueryRunner runner = new QueryRunner();
 Connection conn = JDBCUtils.getConnection3();
 String sql = "delete from customers where id < ?";
 int count = runner.update(conn, sql,3);
 System.out.println("删除了" + count + "条记录");
 JDBCUtils.closeResource(conn, null);
}


ResultSetHandler接口及实现类


该接口用于处理 java.sql.ResultSet,将数据按要求转换为另一种形式。


ResultSetHandler 接口提供了一个单独的方法:Object handle (java.sql.ResultSet .rs)。 接口的主要实现类:


ArrayHandler:把结果集中的第一行数据转成对象数组。


ArrayListHandler:把结果集中的每一行数据都转成一个数组,再存放到List中。


BeanHandler:将结果集中的第一行数据封装到一个对应的JavaBean实例中。


BeanListHandler:将结果集中的每一行数据都封装到一个对应的JavaBean实例中,存放到List里。


ColumnListHandler:将结果集中某一列的数据存放到List中。


KeyedHandler(name):将结果集中的每一行数据都封装到一个Map里,再把这些map再存到一个map


里,其key为指定的key。


MapHandler:将结果集中的第一行数据封装到一个Map里,key是列名,value就是对应的值。


MapListHandler:将结果集中的每一行数据都封装到一个Map里,然后再存放到List ScalarHandler:查询单个值对象


测试

/*
 * 测试查询:查询一条记录
 * 
 * 使用ResultSetHandler的实现类:BeanHandler
 */
@Test
public void testQueryInstance() throws Exception{
 QueryRunner runner = new QueryRunner();
 Connection conn = JDBCUtils.getConnection3();
 String sql = "select id,name,email,birth from customers where id = ?";
 //
 BeanHandler<Customer> handler = new BeanHandler<>(Customer.class);
 Customer customer = runner.query(conn, sql, handler, 23);
 System.out.println(customer); 
 JDBCUtils.closeResource(conn, null);
}
/*
 * 测试查询:查询多条记录构成的集合
 * 
 * 使用ResultSetHandler的实现类:BeanListHandler
 */
@Test
public void testQueryList() throws Exception{
 QueryRunner runner = new QueryRunner();
 Connection conn = JDBCUtils.getConnection3();
 String sql = "select id,name,email,birth from customers where id < ?";
 //
 BeanListHandler<Customer> handler = new BeanListHandler<>(Customer.class);
 List<Customer> list = runner.query(conn, sql, handler, 23);
 list.forEach(System.out::println);
 JDBCUtils.closeResource(conn, null);
}
/*
 * 自定义ResultSetHandler的实现类
 */
@Test
public void testQueryInstance1() throws Exception{
 QueryRunner runner = new QueryRunner();
 Connection conn = JDBCUtils.getConnection3();
 String sql = "select id,name,email,birth from customers where id = ?";
 ResultSetHandler<Customer> handler = new ResultSetHandler<Customer>() {
 @Override
 public Customer handle(ResultSet rs) throws SQLException {
 System.out.println("handle");
// return new Customer(1,"Tom","tom@126.com",new Date(123323432L));
 if(rs.next()){
 int id = rs.getInt("id");
 String name = rs.getString("name");
 String email = rs.getString("email");
 Date birth = rs.getDate("birth");
return new Customer(id, name, email, birth);
 }
 return null;
 }
 };
 Customer customer = runner.query(conn, sql, handler, 23);
 System.out.println(customer);
 JDBCUtils.closeResource(conn, null);
}
/*
 * 如何查询类似于最大的,最小的,平均的,总和,个数相关的数据,
 * 使用ScalarHandler
 * 
 */
@Test
public void testQueryValue() throws Exception{
 QueryRunner runner = new QueryRunner();
 Connection conn = JDBCUtils.getConnection3();
 //测试一:
// String sql = "select count(*) from customers where id < ?";
// ScalarHandler handler = new ScalarHandler();
// long count = (long) runner.query(conn, sql, handler, 20);
// System.out.println(count);
 //测试二:
 String sql = "select max(birth) from customers";
 ScalarHandler handler = new ScalarHandler();
 Date birth = (Date) runner.query(conn, sql, handler);
 System.out.println(birth);
 JDBCUtils.closeResource(conn, null);
}
相关文章
|
SQL Java 数据库连接
Apache-DBUtils实现CRUD操作,已封装的API实现jdbc对数据库进行操作
Apache-DBUtils实现CRUD操作,已封装的API实现jdbc对数据库进行操作
185 0
Apache-DBUtils实现CRUD操作,已封装的API实现jdbc对数据库进行操作
|
2月前
|
监控 大数据 Java
使用Apache Flink进行大数据实时流处理
Apache Flink是开源流处理框架,擅长低延迟、高吞吐量实时数据流处理。本文深入解析Flink的核心概念、架构(包括客户端、作业管理器、任务管理器和数据源/接收器)和事件时间、窗口、状态管理等特性。通过实战代码展示Flink在词频统计中的应用,讨论其实战挑战与优化。Flink作为大数据处理的关键组件,将持续影响实时处理领域。
341 5
|
18天前
|
SQL API Apache
官宣|Apache Flink 1.20 发布公告
Apache Flink 1.20.0 已发布,这是迈向 Flink 2.0 的最后一个小版本,后者预计年底发布。此版本包含多项改进和新功能,涉及 13 个 FLIPs 和 300 多个问题解决。亮点包括引入物化表简化 ETL 管道开发,统一检查点文件合并机制减轻文件系统压力,以及 SQL 语法增强如支持 `DISTRIBUTED BY` 语句。此外,还进行了大量的配置项清理工作,为 Flink 2.0 铺平道路。这一版本得益于 142 位贡献者的共同努力,其中包括来自中国多家知名企业的开发者。
599 7
官宣|Apache Flink 1.20 发布公告
|
9天前
|
消息中间件 大数据 Kafka
"Apache Flink:重塑大数据实时处理新纪元,卓越性能与灵活性的实时数据流处理王者"
【8月更文挑战第10天】Apache Flink以卓越性能和高度灵活性在大数据实时处理领域崭露头角。它打破批处理与流处理的传统界限,采用统一模型处理有界和无界数据流,提升了开发效率和系统灵活性。Flink支持毫秒级低延迟处理,通过时间窗口、状态管理和自动并行化等关键技术确保高性能与可靠性。示例代码展示了如何使用Flink从Kafka读取实时数据并进行处理,简明扼要地呈现了Flink的强大能力。随着技术进步,Flink将在更多场景中提供高效可靠的解决方案,持续引领大数据实时处理的发展趋势。
30 7
|
1月前
|
关系型数据库 API Apache
Flink CDC:基于 Apache Flink 的流式数据集成框架
本文整理自阿里云 Flink SQL 团队研发工程师于喜千(yux)在 SECon 全球软件工程技术大会中数据集成专场沙龙的分享。
17570 11
Flink CDC:基于 Apache Flink 的流式数据集成框架
|
9天前
|
消息中间件 传感器 数据处理
"揭秘实时流式计算:低延迟、高吞吐量的数据处理新纪元,Apache Flink示例带你领略实时数据处理的魅力"
【8月更文挑战第10天】实时流式计算即时处理数据流,低延迟捕获、处理并输出数据,适用于金融分析等需即时响应场景。其框架(如Apache Flink)含数据源、处理逻辑及输出目标三部分。例如,Flink可从数据流读取信息,转换后输出。此技术优势包括低延迟、高吞吐量、强容错性及处理逻辑的灵活性。
32 4
|
5天前
|
消息中间件 Kafka Apache
流计算引擎数据问题之Apache Flink 的完整性推理方案设计如何解决
流计算引擎数据问题之Apache Flink 的完整性推理方案设计如何解决
12 0
|
13天前
|
监控 大数据 API
震撼来袭!Apache Flink:实时数据流处理界的超级巨星,开启全新纪元,让你的数据飞起来!
【8月更文挑战第6天】随着大数据时代的到来,企业急需高效处理实时数据流。Apache Flink作为一款开源流处理框架,以高性能、可靠性及易用性脱颖而出。Flink能无缝处理有界和无界数据流,支持低延迟实时分析,适用于实时推荐、监控及风控等场景。例如,在实时风控系统中,Flink可即时分析交易行为以检测欺诈。以下示例展示了如何使用Flink实时计算交易总额,通过定义Transaction类和使用DataStream API实现数据流的实时处理和聚合。Flink正以其强大的实时处理能力和高度可扩展性引领实时数据流处理的新时代。
35 0
|
14天前
|
消息中间件 大数据 Kafka
Apache Flink 大揭秘:征服大数据实时流处理的神奇魔法,等你来解锁!
【8月更文挑战第5天】Apache Flink 是一款强大的开源大数据处理框架,专长于实时流处理。本教程通过两个示例引导你入门:一是计算数据流中元素的平均值;二是从 Kafka 中读取数据并实时处理。首先确保已安装配置好 Flink 和 Kafka 环境。第一个 Java 示例展示了如何创建流执行环境,生成数据流,利用 `flatMap` 转换数据,并使用 `keyBy` 和 `sum` 计算平均值。第二个示例则演示了如何设置 Kafka 消费者属性,并从 Kafka 主题读取数据。这两个示例为你提供了使用 Flink 进行实时流处理的基础。随着进一步学习,你将能应对更复杂的实时数据挑战。
34 0
|
23天前
|
SQL 数据处理 Apache
Apache Flink SQL:实时计算的核心引擎
Apache Flink SQL 的一些核心功能,并探讨了其在实时计算领域的应用。随着 Flink 社区的不断发展和完善,Flink SQL 将变得越来越强大,为实时数据分析带来更多的可能性。