JAVA使用POI导出百万级别数据解决方案

本文涉及的产品
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介:  用过POI的人都知道,在POI以前的版本中并不支持大数据量的处理,如果数据量过多还会常报OOM错误,这时候调整JVM的配置参数也不是一个好对策(注:jdk在32位系统中支持的内存不能超过2个G,而在64位中没有限制,但是在64位的系统中,性能并不是太好),好在POI3.8版本新出来了一个SXSSFWorkbook对象,它就是用来解决大数据量以及超大数据量的导入导出操作的,但是SXSSFWorkbook只支持.xlsx格式,不支持.xls格式的Excel文件。
 用过POI的人都知道,在POI以前的版本中并不支持大数据量的处理,如果数据量过多还会常报OOM错误, 这时候调整JVM的配置参数也不是一个好对策(注:jdk在32位系统中支持的内存不能超过2个G,而在64位中没有限制,但是在64位的系统中,性能并不是太好),好在POI3.8版本新出来了一个SXSSFWorkbook对象,它就是用来解决大数据量以及超大数据量的导入导出操作的,但是SXSSFWorkbook只支持.xlsx格式,不支持.xls格式的Excel文件。

这里普及一下,POI中使用HSSF对象时,excel 2003最多只允许存储65536条数据,一般用来处理较少的数据量,这时对于百万级别数据,Excel肯定容纳不了,而且在计算机性能稍低的机器上测试,就很容易导致堆溢出。而当我升级到XSSF对象时,它可以直接支持excel2007以上版本,因为它采用ooxml格式。这时excel可以支持1048576条数据,单个sheet表就支持近104万条数据了,虽然这时导出100万数据能满足要求,但使用XSSF测试后发现偶尔还是会发生堆溢出,所以也不适合百万数据的导出

 现在我们知道excel2007及以上版本可以轻松实现存储百万级别的数据,但是系统中的大量数据是如何能够快速准确的导入到excel中这好像是个难题,对于一般的web系统,我们为了解决成本,基本都是使用的入门级web服务器tomcat,既然我们不推荐调整JVM的大小,那我们就要针对我们的代码来解决我们要解决的问题。在POI3.8之后新增加了一个类,SXSSFWorkbook,采用当数据加工时不是类似前面版本的对象,它可以控制excel数据占用的内存,他通过控制在内存中的行数来实现资源管理,即当创建对象超过了设定的行数,它会自动刷新内存,将数据写入文件,这样导致打印时,占用的CPU,和内存很少。但有人会说了,我用过这个类啊,他好像并不能完全解决,当数据量超过一定量后还是会内存溢出的,而且时间还很长。对你只是用了这个类,但是你并没有针对你的需求进行相应的设计,仅仅是用了,所以接下来我要说的问题就是,如何通过SXSSFWorkbook以及相应的写入设计来实现百万级别的数据快速写入。

 我先举个例子,以前我们数据库中存在大量的数据,我们要查询,怎么办?我们在没有经过设计的时候是这样来处理的,先写一个集合,然后执行jdbc,将返回的结果赋值给list,然后再返回到页面上,但是当数据量大的时候,就会出现数据无法返回,内存溢出的情况,于是我们在有限的时间和空间下,通过分页将数据一页一页的显示出来,这样可以避免了大数据量数据对内存的占用,也提高了用户的体验,在我们要导出的百万数据也是一个道理,内存突发性占用,我们可以限制导出数据所占用的内存,这里我先建立一个list容器,list中开辟10000行的存储空间,每次存储10000行,用完了将内容清空,然后重复利用,这样就可以有效控制内存,所以我们的设计思路就基本形成了,所以分页数据导出共有以下3个步骤:

1、求数据库中待导出数据的行数

2、根据行数求数据提取次数

3、按次数将数据写入文件

通过以上步骤在效率和用户体验性上都有了很高的提高,接下来上代码

[java]  view plain  copy
  1. public void exportBigDataExcel(ValueDataDto valueDataDto, String path)  
  2.             throws IOException {  
  3.     // 最重要的就是使用SXSSFWorkbook,表示流的方式进行操作  
  4.     // 在内存中保持100行,超过100行将被刷新到磁盘  
  5.     SXSSFWorkbook wb = new SXSSFWorkbook(100);  
  6.     Sheet sh = wb.createSheet(); // 建立新的sheet对象  
  7.     Row row = sh.createRow(0);   // 创建第一行对象  
  8.     // -----------定义表头-----------  
  9.     Cell cel0 = row.createCell(0);  
  10.     cel0.setCellValue("1");  
  11.     Cell cel2 = row.createCell(1);  
  12.     cel2.setCellValue("2");  
  13.     Cell cel3 = row.createCell(2);  
  14.     cel3.setCellValue("3");  
  15.     Cell cel4 = row.createCell(3);  
  16.     // ---------------------------  
  17.     List<valuedatabean> list = new ArrayList<valuedatabean>();  
  18.     // 数据库中存储的数据行  
  19.     int page_size = 10000;  
  20.     // 求数据库中待导出数据的行数  
  21.     int list_count = this.daoUtils.queryListCount(this.valueDataDao  
  22.             .queryExportSQL(valueDataDto).get("count_sql"));  
  23.     // 根据行数求数据提取次数  
  24.     int export_times = list_count % page_size > 0 ? list_count / page_size  
  25.             + 1 : list_count / page_size;  
  26.     // 按次数将数据写入文件  
  27.     for (int j = 0; j < export_times; j++) {  
  28.         list = this.valueDataDao.queryPageList(this.valueDataDao  
  29.                 .queryExportSQL(valueDataDto).get("list_sql"), j + 1,  
  30.                 page_size);  
  31.         int len = list.size() < page_size ? list.size() : page_size;  
  32.       
[java]  view plain  copy
  1. <span style="white-space:pre">    </span>   for (int i = 0; i < len; i++) {  
  2.             Row row_value = sh.createRow(j * page_size + i + 1);  
  3.             Cell cel0_value = row_value.createCell(0);  
  4.             cel0_value.setCellValue(list.get(i).getaa());  
  5.             Cell cel2_value = row_value.createCell(1);  
  6.             cel2_value.setCellValue(list.get(i).getaa());  
  7.             Cell cel3_value = row_value.createCell(2);  
  8.             cel3_value.setCellValue(list.get(i).getaa_person());  
  9.         }  
  10.         list.clear(); // 每次存储len行,用完了将内容清空,以便内存可重复利用  
  11.     }  
  12.     FileOutputStream fileOut = new FileOutputStream(path);  
  13.     wb.write(fileOut);  
  14.     fileOut.close();  
  15.     wb.dispose();  
  16. }  

到目前已经可以实现百万数据的导出了,但是当我们的业务数据超过200万,300万了呢?如何解决?

这时,直接打印数据到一个工作簿的一个工作表是实现不了的,必须拆分到多个工作表,或者多个工作簿中才能实现。因为一个sheet最多行数为1048576

下面就以这种思路提供另外一种解决方案,直接上代码(后面会附上测试数据库,及案例需要的jar包)

[java]  view plain  copy
  1. public static void main(String[] args) throws Exception {  
  2.     Test3SXXFS tm = new Test3SXXFS();  
  3.     tm.jdbcex(true);  
  4. }  
  5. public void jdbcex(boolean isClose) throws InstantiationException, IllegalAccessException,   
  6.             ClassNotFoundException, SQLException, IOException, InterruptedException {  
  7.           
  8.     String xlsFile = "f:/poiSXXFSBigData.xlsx";     //输出文件  
  9.     //内存中只创建100个对象,写临时文件,当超过100条,就将内存中不用的对象释放。  
  10.     Workbook wb = new SXSSFWorkbook(100);           //关键语句  
  11.     Sheet sheet = null;     //工作表对象  
  12.     Row nRow = null;        //行对象  
  13.     Cell nCell = null;      //列对象  
  14.   
  15.     //使用jdbc链接数据库  
  16.     Class.forName("com.mysql.jdbc.Driver").newInstance();    
  17.     String url = "jdbc:mysql://localhost:3306/bigdata?characterEncoding=UTF-8";  
  18.     String user = "root";  
  19.     String password = "123456";  
  20.     //获取数据库连接  
  21.     Connection conn = DriverManager.getConnection(url, user,password);     
  22.     Statement stmt = conn.createStatement(ResultSet.TYPE_SCROLL_SENSITIVE,ResultSet.CONCUR_UPDATABLE);     
  23.     String sql = "select * from hpa_normal_tissue limit 1000000";   //100万测试数据  
  24.     ResultSet rs = stmt.executeQuery(sql);    
  25.       
  26.     ResultSetMetaData rsmd = rs.getMetaData();  
  27.     long  startTime = System.currentTimeMillis();   //开始时间  
  28.     System.out.println("strat execute time: " + startTime);  
  29.           
  30.     int rowNo = 0;      //总行号  
  31.     int pageRowNo = 0;  //页行号  
  32.           
  33.     while(rs.next()) {  
  34.         //打印300000条后切换到下个工作表,可根据需要自行拓展,2百万,3百万...数据一样操作,只要不超过1048576就可以  
  35.         if(rowNo%300000==0){  
  36.             System.out.println("Current Sheet:" + rowNo/300000);  
  37.             sheet = wb.createSheet("我的第"+(rowNo/300000)+"个工作簿");//建立新的sheet对象  
  38.             sheet = wb.getSheetAt(rowNo/300000);        //动态指定当前的工作表  
  39.             pageRowNo = 0;      //每当新建了工作表就将当前工作表的行号重置为0  
  40.         }     
  41.         rowNo++;  
  42.         nRow = sheet.createRow(pageRowNo++);    //新建行对象  
  43.   
  44.         // 打印每行,每行有6列数据   rsmd.getColumnCount()==6 --- 列属性的个数  
  45.         for(int j=0;j<rsmd.getColumnCount();j++){  
  46.             nCell = nRow.createCell(j);  
  47.             nCell.setCellValue(rs.getString(j+1));  
  48.         }  
  49.               
  50.         if(rowNo%10000==0){  
  51.             System.out.println("row no: " + rowNo);  
  52.         }  
  53. //      Thread.sleep(1);    //休息一下,防止对CPU占用,其实影响不大  
  54.     }  
  55.           
  56.     long finishedTime = System.currentTimeMillis(); //处理完成时间  
  57.     System.out.println("finished execute  time: " + (finishedTime - startTime)/1000 + "m");  
  58.           
  59.     FileOutputStream fOut = new FileOutputStream(xlsFile);  
  60.     wb.write(fOut);  
  61.     fOut.flush();       //刷新缓冲区  
  62.     fOut.close();  
  63.           
  64.     long stopTime = System.currentTimeMillis();     //写文件时间  
  65.     System.out.println("write xlsx file time: " + (stopTime - startTime)/1000 + "m");  
  66.           
  67.     if(isClose){  
  68.         this.close(rs, stmt, conn);  
  69.     }  
  70. }  
  71.       
  72. //执行关闭流的操作  
  73. private void close(ResultSet rs, Statement stmt, Connection conn ) throws SQLException{  
  74.     rs.close();     
  75.     stmt.close();     
  76.     conn.close();   
  77. }  

数据库截图:




案例执行结果截图:

             


完美!!!!


数据库脚本及案例相关jar包:

http://pan.baidu.com/s/1pKXQp55


相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps&nbsp;
相关文章
|
7天前
|
Java 程序员 容器
Java中的变量和常量:数据的‘小盒子’和‘铁盒子’有啥不一样?
在Java中,变量是一个可以随时改变的数据容器,类似于一个可以反复打开的小盒子。定义变量时需指定数据类型和名称。例如:`int age = 25;` 表示定义一个整数类型的变量 `age`,初始值为25。 常量则是不可改变的数据容器,类似于一个锁死的铁盒子,定义时使用 `final` 关键字。例如:`final int MAX_SPEED = 120;` 表示定义一个名为 `MAX_SPEED` 的常量,值为120,且不能修改。 变量和常量的主要区别在于变量的数据可以随时修改,而常量的数据一旦确定就不能改变。常量主要用于防止意外修改、提高代码可读性和便于维护。
|
8天前
|
存储 缓存 安全
在 Java 编程中,创建临时文件用于存储临时数据或进行临时操作非常常见
在 Java 编程中,创建临时文件用于存储临时数据或进行临时操作非常常见。本文介绍了使用 `File.createTempFile` 方法和自定义创建临时文件的两种方式,详细探讨了它们的使用场景和注意事项,包括数据缓存、文件上传下载和日志记录等。强调了清理临时文件、确保文件名唯一性和合理设置文件权限的重要性。
20 2
|
8天前
|
Java
Java 8 引入的 Streams 功能强大,提供了一种简洁高效的处理数据集合的方式
Java 8 引入的 Streams 功能强大,提供了一种简洁高效的处理数据集合的方式。本文介绍了 Streams 的基本概念和使用方法,包括创建 Streams、中间操作和终端操作,并通过多个案例详细解析了过滤、映射、归并、排序、分组和并行处理等操作,帮助读者更好地理解和掌握这一重要特性。
15 2
|
8天前
|
人工智能 监控 数据可视化
Java智慧工地信息管理平台源码 智慧工地信息化解决方案SaaS源码 支持二次开发
智慧工地系统是依托物联网、互联网、AI、可视化建立的大数据管理平台,是一种全新的管理模式,能够实现劳务管理、安全施工、绿色施工的智能化和互联网化。围绕施工现场管理的人、机、料、法、环五大维度,以及施工过程管理的进度、质量、安全三大体系为基础应用,实现全面高效的工程管理需求,满足工地多角色、多视角的有效监管,实现工程建设管理的降本增效,为监管平台提供数据支撑。
25 3
|
12天前
|
存储 分布式计算 Java
存算分离与计算向数据移动:深度解析与Java实现
【11月更文挑战第10天】随着大数据时代的到来,数据量的激增给传统的数据处理架构带来了巨大的挑战。传统的“存算一体”架构,即计算资源与存储资源紧密耦合,在处理海量数据时逐渐显露出其局限性。为了应对这些挑战,存算分离(Disaggregated Storage and Compute Architecture)和计算向数据移动(Compute Moves to Data)两种架构应运而生,成为大数据处理领域的热门技术。
34 2
|
14天前
|
Java API Apache
|
18天前
|
存储 Java API
Java实现导出多个excel表打包到zip文件中,供客户端另存为窗口下载
Java实现导出多个excel表打包到zip文件中,供客户端另存为窗口下载
25 4
|
18天前
|
SQL Java OLAP
java实现“数据平滑升级”
java实现“数据平滑升级”
35 2
|
19天前
|
SQL Java OLAP
java实现“数据平滑升级”
java实现“数据平滑升级”
10 0
|
Java 数据处理 数据库
重构:以Java POI 导出EXCEL为例2
前言 上一篇博文已经将一些对象抽象成成员变量以及将一些代码块提炼成函数。这一节将会继续重构原有的代码,将一些函数抽象成类,增加成员变量,将传入的参数合成类等等。 上一篇博文地址:http://www.cnblogs.
1275 0