怎样用EasyExcel导出更多代码?

本文涉及的产品
RDS MySQL DuckDB 分析主实例,集群系列 4核8GB
简介: 在处理大量数据导出时遇到Java OutOfMemoryError(OOM)。最初使用公司内部工具直接查询全量数据写入Excel,导致OOM。改用阿里EasyExcel后,虽偶发OOM,但问题依旧存在。为解决此问题,采用了分页查询并分批次写入Excel的方法,有效避免了OOM。为简化此过程,封装了一个EasyExcelExport抽象类,包含分批次导出和不分批次导出的方法。使用时需实现getData()和convertSourceData2ExportEntity()方法。通过示例展示了如何利用这个工具类进行分批导出,避免了内存溢出,并减少了重复代码。

前段时间在做一个导出的功能,本以为是平平无奇的一个功能。就用公司内部的一个导出工具类三下五除二就写完了,做法是直接查全量数据,然后直接往Excel里写。一开始没多少数据也没什么问题,但是当数据量逐渐多了起来后,达到一万多条,导出的时候就会报OOM。然后我就换成了阿里开源的EasyExcel,但是导出的时候也不太稳定,偶尔也会OOM。所以应该是数据量太大了,在写入的时候把内存占满了。然后我就放弃了查全量数据一次性写入Excel的做法,采用分页查询,分批次写入Excel的方式,果然不会出现OOM了。
虽然这种方式不会出现OOM,但是每次导出都写一遍重复的代码着实有点麻烦,所以结合自己平时的使用场景,封装了一个EasyExcel的导出工具类,这样只要在分页查询的基础上写少量的代码,就可以实现分批次写入Excel,简化代码的编写并且解决OOM的问题。
实现
java复制代码@Slf4j
public abstract class EasyExcelExport {

/**
 * EasyExcel导出Excel表格,每个sheet默认最大10万条数据
 *
 * @param fileName  excel文件前缀名
 * @param sheetName 表页名
 */
public void easyExcelBatchExport(String fileName, String sheetName, HttpServletResponse response) {
    this.easyExcelBatchExport(fileName, sheetName, 100000, response);
}

/**
 * 分批次导出excel数据
 *
 * @param fileName  excel文件前缀名
 * @param sheetSize 每个sheet的数据量,默认10万,excel有限制不能大于1048576
 * @param sheetName 表页名
 */
public void easyExcelBatchExport(String fileName, String sheetName, Integer sheetSize, HttpServletResponse response) {
    fileName = fileName + LocalDateTime.now().format(DateTimeFormatter.ofPattern("yyyyMMddHHmmss")) + ".xlsx";
    int currentSheet = 1;   // 当前处于第几个sheet
    int totalLine = 0;      // 总共写入的条数
    int currentBatch = 1;   // 当前写入excel的批次(第几页)
    int lineNum = 1;        // 行号,当前写入的是第几条数据

    long startTime = System.currentTimeMillis();
    try {
        response.setCharacterEncoding("utf-8");
        // 告诉浏览器用什么软件可以打开此文件
        response.setHeader("content-Type", "application/vnd.ms-excel");
        // 下载文件的默认名称
        response.setHeader("Content-Disposition", "attachment;filename=" + URLEncoder.encode(fileName, "utf-8"));

        ExcelWriter excelWriter = EasyExcel.write(response.getOutputStream(), (Class<T>) ((ParameterizedType) getClass().getGenericSuperclass()).getActualTypeArguments()[0]).build();
        WriteSheet sheet = EasyExcel.writerSheet(sheetName).build();

        while (true) {
            // 获取数据,然后currentBatch+1,下次调用就会获取新的数据
            List<S> sourceDataList = getData(currentBatch);
            currentBatch++;

            List<T> exportEntityList = new ArrayList<>();
            if (CollUtil.isNotEmpty(sourceDataList)) {
                totalLine += sourceDataList.size();
                log.info("EasyExcel开始写入第{}批数据,当前批次数据大小为{}", currentBatch - 1, sourceDataList.size());
                for (S sourceData : sourceDataList) {
                    exportEntityList.add(convertSourceData2ExportEntity(sourceData, lineNum));
                    lineNum++;

                    // 当前sheet数据已经到达最大值,将当前数据全写入当前sheet,下一条数据就会写入新sheet
                    if (lineNum > sheetSize) {
                        excelWriter.write(exportEntityList, sheet);
                        exportEntityList.clear();
                        lineNum = 1;
                        currentSheet++;
                        sheet = EasyExcel.writerSheet(sheetName + currentSheet).build();
                    }
                }

                // 写入excel
                excelWriter.write(exportEntityList, sheet);
            } else {
                // 未获取到数据,结束
                break;
            }
        }
        excelWriter.finish();
    } catch (Exception e) {
        log.error("EasyExcel导出异常", e);
    }

    log.info("EasyExcel导出数据结束,总数据量为{},耗时{}ms", totalLine, (System.currentTimeMillis() - startTime));
}

/**
 * 不分批次导出excel。一次性获取所有数据写入excel,确定数据量不大时可以使用该方法,数据量过大时使用分批次导出,否则会OOM
 *
 * @param fileName  excel文件前缀名
 * @param sheetName 表页名
 */
public void easyExcelExport(String fileName, String sheetName, HttpServletResponse response) {
    fileName = fileName + LocalDateTime.now().format(DateTimeFormatter.ofPattern("yyyyMMddHHmmss")) + ".xlsx";
    int totalLine = 0;      // 总共写入的条数
    int lineNum = 1;        // 行号,当前写入的是第几条数据

    long startTime = System.currentTimeMillis();
    try {
        response.setCharacterEncoding("utf-8");
        // 告诉浏览器用什么软件可以打开此文件
        response.setHeader("content-Type", "application/vnd.ms-excel");
        // 下载文件的默认名称
        response.setHeader("Content-Disposition", "attachment;filename=" + URLEncoder.encode(fileName, "utf-8"));

        List<S> sourceDataList = getData(1);
        List<T> exportEntityList = new ArrayList<>();
        if (CollUtil.isNotEmpty(sourceDataList)) {
            totalLine += sourceDataList.size();
            log.info("EasyExcel开始写入数据,数据大小为{}", sourceDataList.size());
            for (S sourceData : sourceDataList) {
                exportEntityList.add(convertSourceData2ExportEntity(sourceData, lineNum));
                lineNum++;
            }
        }
        response.setCharacterEncoding("utf-8");
        // 告诉浏览器用什么软件可以打开此文件
        response.setHeader("content-Type", "application/vnd.ms-excel");
        // 下载文件的默认名称
        response.setHeader("Content-Disposition", "attachment;filename=" + URLEncoder.encode(fileName, "utf-8"));
        EasyExcel.write(response.getOutputStream(), (Class<T>) ((ParameterizedType) getClass().getGenericSuperclass()).getActualTypeArguments()[0]).sheet(sheetName).doWrite(exportEntityList);
    } catch (Exception e) {
        log.error("EasyExcel导出异常", e);
    }

    log.info("EasyExcel导出数据结束,总数据量为{},耗时{}ms", totalLine, (System.currentTimeMillis() - startTime));
}

/**
 * 将原数据对象转换为需要导出的目标对象
 *
 * @param sourceData 原对象
 * @param lineNum    行号
 */
public abstract T convertSourceData2ExportEntity(S sourceData, Integer lineNum);

/**
 * 获取原始数据,通过currentBatch参数分页获取数据。
 *
 * @param currentBatch 获取第几批(页)数据,通过该参数分页查询,每次调用自动递增。不分批次导出时可以忽略该参数
 */
public abstract List<S> getData(int currentBatch);

}

首先,这是EasyExcelExport是一个抽象类,指定了泛型 T 和 S,T是target目标类,也就是导出时对应的类,S是source原对象所对应的类。
EasyExcelExport里还有两个抽象方法,getData() 和 convertSourceData2ExportEntity() 。这两个方法是需要在平时使用时自己去实现的,getData是数据查询的方法,可以在这里面去实现分页查询的逻辑,currentBatch参数是用来控制分页查询页码的,从1开始,会自动递增。如果确定数据量不大不需要分批次导出的话,那么getData()里只需要进行普通的查询即可,忽略currentBatch参数不用分页查询。还有一个方法是convertSourceData2ExportEntity(),这个是用来将对象S转为对象T的方法,因为从数据库查询或者是从其他地方获取到的对象类型可能是S,而导出时需要的对象类型是T,所以通过该方法进行对象转换。
最核心的是 easyExcelBatchExport() 方法,里面有一个while循环,while循环里首先会去调用getData()方法获取数据,然后将currentBatch加1便于下次获取数据,接下来有个for循环去进行对象的转换并添加到exportEntityList集合中,这个集合中装的是最终写到Excel里的对象。当转换完成后就将当前批次的数据写入Excel中,然后进行下一次循环,当getData()方法未获取到数据时,就结束循环。
同时支持指定每个sheet页的最大行数。在对对象进行转换时有一个判断,当前sheet页的数据是否到达指定值,到达后,直接写入excel,然后新建一个sheet页,这样新的数据就会写入新的sheet页。

相关文章
|
SQL Oracle 关系型数据库
Oracle之regexp系列函数详解
Oracle之regexp系列函数详解
976 1
|
存储 关系型数据库 MySQL
|
存储 数据采集
正确处理 CSV 文件的引号和逗号
CSV(Comma-Separated Values,逗号分割值),就是用纯文本的形式存储表格数据,最大的特点就是方便。但是你真的会处理 CSV 文件吗?数据包含引号或逗号,该怎么办?
1260 0
|
存储 SQL 关系型数据库
MySQL请求使用union查询结果为空
MySQL请求使用union查询结果为空
|
Java Spring
Java Spring Boot监听事件和处理事件
通过上述步骤,我们可以在Java Spring Boot应用中实现事件的发布和监听。事件驱动模型可以帮助我们实现组件间的松耦合,提升系统的可维护性和可扩展性。无论是处理业务逻辑还是系统事件,Spring Boot的事件机制都提供了强大的支持和灵活性。希望本文能为您的开发工作提供实用的指导和帮助。
454 15
|
关系型数据库 MySQL Devops
docker容器刚启动就停止 — 运行mysql 报错 mysqld: [ERROR] Fatal error in defaults handling. Program aborted!
docker容器刚启动就停止 — 运行mysql 报错 mysqld: [ERROR] Fatal error in defaults handling. Program aborted!
2233 1
基于zlibCompress + Base64实现字符串与二维码的生成和恢复
文章介绍了如何使用zlib进行数据压缩和解压缩,以及如何结合Base64编码解码来生成和恢复包含压缩数据的二维码。
197 0
|
Java 大数据 API
Java 流(Stream)、文件(File)和IO的区别
Java中的流(Stream)、文件(File)和输入/输出(I/O)是处理数据的关键概念。`File`类用于基本文件操作,如创建、删除和检查文件;流则提供了数据读写的抽象机制,适用于文件、内存和网络等多种数据源;I/O涵盖更广泛的输入输出操作,包括文件I/O、网络通信等,并支持异常处理和缓冲等功能。实际开发中,这三者常结合使用,以实现高效的数据处理。例如,`File`用于管理文件路径,`Stream`用于读写数据,I/O则处理复杂的输入输出需求。
753 12
|
消息中间件 缓存 监控
在订单系统中实现高并发的支付处理
在订单系统中实现高并发的支付处理
707 4
|
算法 大数据 数据处理
【软件设计师备考 专题 】IO控制方式(中断系统、DMA、IO处理机方式)
【软件设计师备考 专题 】IO控制方式(中断系统、DMA、IO处理机方式)
625 1