- 浏览: 914795 次
- 性别:
- 来自: 北京
文章分类
- 全部博客 (537)
- Java SE (114)
- Struts (18)
- Hibernate (25)
- Spring (3)
- Page_Tech (41)
- Others (87)
- Database (29)
- Server (24)
- OpenSource_Tools (15)
- IDE_Tool (22)
- Algorithm (28)
- Interview (22)
- Test (28)
- Hardware (1)
- Mainframe (25)
- Web application (4)
- Linux (3)
- PHP (17)
- Android (1)
- Perl (6)
- ubuntu (1)
- Java EE (9)
- Web Analysis (5)
- Node.js (2)
- javascript (2)
最新评论
-
一键注册:
request.getRequestURL()和request.getRequestURI() -
SuperCustomer:
...
SED的暂存空间和模式空间 -
juyo_ch:
讲得挺好理解的,学习了
java 死锁及解决 -
chinaalex:
最后一题答案正确,但是分析有误.按照如下过程,上一行为瓶,下一 ...
zz智力题 -
liaowuxukong:
多谢博主啦,弱弱的了解了一点。
C++/Java 实现多态的方法(C++)
前段时间,做POI导出的时候,应为数据量大(十万条数据),所以总是出现OOM错误,在网上找到了解决办法,大数据量导出Excel的方案:http://devbbs.doit.com.cn/redirect.php?tid=46&goto=lastpost
解决大批量数据导出Excel产生内存溢出的方案:http://cnaning.iteye.com/blog/347158
解决大批量数据导出Excel产生内存溢出的方案(二):http://cnaning.iteye.com/blog/347160
- import java.io.ByteArrayInputStream;
- import java.io.File;
- import java.io.FileOutputStream;
- import java.io.IOException;
- import java.io.InputStream;
- import java.io.OutputStream;
- import java.util.ArrayList;
- import java.util.Collections;
- import java.util.HashMap;
- import java.util.Iterator;
- import java.util.List;
- import java.util.Map;
- import org.apache.log4j.Logger;
- import org.apache.poi.hssf.model.Sheet;
- import org.apache.poi.hssf.model.Workbook;
- import org.apache.poi.hssf.record.CellValueRecordInterface;
- import org.apache.poi.hssf.record.LabelRecord;
- import org.apache.poi.hssf.record.LabelSSTRecord;
- import org.apache.poi.hssf.record.Record;
- import org.apache.poi.hssf.record.RowRecord;
- import org.apache.poi.hssf.record.SSTRecord;
- import org.apache.poi.hssf.record.UnicodeString;
- import org.apache.poi.poifs.filesystem.POIFSFileSystem;
- import org.apache.struts.taglib.html.RewriteTag;
- @SuppressWarnings("unchecked")
- public class XlsMergeUtil {
- private static Logger logger = Logger.getLogger(XlsMergeUtil.class);
- /**
- * 将多个Xls文件合并为一个,适用于只有一个sheet,并且格式相同的文档
- *
- * @param inputs
- * 输入的Xls文件,第一个XLS文件必须给出足够sheet空间 例如,总共200000行数据,第一个文件至少3个空白sheet
- * @param out
- * 输出文件
- */
- public static void merge(InputStream[] inputs, OutputStream out) {
- if (inputs == null || inputs.length <= 1) {
- throw new IllegalArgumentException("没有传入输入流数组,或只有一个输入流.");
- }
- List<Record> rootRecords = getRecords(inputs[0]);
- Workbook workbook = Workbook.createWorkbook(rootRecords);
- List<Sheet> sheets = getSheets(workbook, rootRecords);
- if (sheets == null || sheets.size() == 0) {
- throw new IllegalArgumentException("第一篇文档的格式错误,必须有至少一个sheet");
- }
- // 以第一篇文档的第一个sheet为根,以后的数据都追加在这个sheet后面
- Sheet rootSheet = sheets.get(0);
- int rootRows = getRowsOfSheet(rootSheet); // 记录第一篇文档的行数,以后的行数在此基础上增加
- rootSheet.setLoc(rootSheet.getDimsLoc());
- Map<Integer, Integer> map = new HashMap(10000);
- int sheetIndex = 0;
- for (int i = 1; i < inputs.length; i++) { // 从第二篇开始遍历
- List<Record> records = getRecords(inputs[i]);
- // 达到最大行数限制,换一个sheet
- if (getRows(records) + rootRows >= RowRecord.MAX_ROW_NUMBER) {
- if ((++sheetIndex) > (sheets.size() - 1)) {
- logger.warn("第一个文档给出的sheets小于需要的数量,部分数据未能合并.");
- break;
- }
- rootSheet = sheets.get(sheetIndex);
- rootRows = getRowsOfSheet(rootSheet);
- rootSheet.setLoc(rootSheet.getDimsLoc());
- logger.debug("切换Sheet" + sheetIndex + "");
- }
- int rowsOfCurXls = 0;
- // 遍历当前文档的每一个record
- for (Iterator itr = records.iterator(); itr.hasNext();) {
- Record record = (Record) itr.next();
- if (record.getSid() == RowRecord.sid) { // 如果是RowRecord
- RowRecord rowRecord = (RowRecord) record;
- // 调整行号
- rowRecord.setRowNumber(rootRows + rowRecord.getRowNumber());
- rootSheet.addRow(rowRecord); // 追加Row
- rowsOfCurXls++; // 记录当前文档的行数
- }
- // SST记录,SST保存xls文件中唯一的String,各个String都是对应着SST记录的索引
- else if (record.getSid() == SSTRecord.sid) {
- SSTRecord sstRecord = (SSTRecord) record;
- for (int j = 0; j < sstRecord.getNumUniqueStrings(); j++) {
- int index = workbook.addSSTString(sstRecord
- .getString(j));
- // 记录原来的索引和现在的索引的对应关系
- map.put(Integer.valueOf(j), Integer.valueOf(index));
- }
- } else if (record.getSid() == LabelSSTRecord.sid) {
- LabelSSTRecord label = (LabelSSTRecord) record;
- // 调整SST索引的对应关系
- label.setSSTIndex(map.get(Integer.valueOf(label
- .getSSTIndex())));
- }
- // 追加ValueCell
- if (record instanceof CellValueRecordInterface) {
- CellValueRecordInterface cell = (CellValueRecordInterface) record;
- int cellRow = cell.getRow() + rootRows;
- cell.setRow(cellRow);
- rootSheet.addValueRecord(cellRow, cell);
- }
- }
- rootRows += rowsOfCurXls;
- }
- byte[] data = getBytes(workbook, sheets.toArray(new Sheet[0]));
- write(out, data);
- }
- static void write(OutputStream out, byte[] data) {
- POIFSFileSystem fs = new POIFSFileSystem();
- // Write out the Workbook stream
- try {
- fs.createDocument(new ByteArrayInputStream(data), "Workbook");
- fs.writeFilesystem(out);
- out.flush();
- } catch (IOException e) {
- e.printStackTrace();
- } finally {
- try {
- out.close();
- } catch (IOException e) {
- e.printStackTrace();
- }
- }
- }
- static List<Sheet> getSheets(Workbook workbook, List records) {
- int recOffset = workbook.getNumRecords();
- int sheetNum = 0;
- // convert all LabelRecord records to LabelSSTRecord
- convertLabelRecords(records, recOffset, workbook);
- List<Sheet> sheets = new ArrayList();
- while (recOffset < records.size()) {
- Sheet sh = Sheet.createSheet(records, sheetNum++, recOffset);
- recOffset = sh.getEofLoc() + 1;
- if (recOffset == 1) {
- break;
- }
- sheets.add(sh);
- }
- return sheets;
- }
- static int getRows(List<Record> records) {
- int row = 0;
- for (Iterator itr = records.iterator(); itr.hasNext();) {
- Record record = (Record) itr.next();
- if (record.getSid() == RowRecord.sid) {
- row++;
- }
- }
- return row;
- }
- static int getRowsOfSheet(Sheet sheet) {
- int rows = 0;
- sheet.setLoc(0);
- while (sheet.getNextRow() != null) {
- rows++;
- }
- return rows;
- }
- @SuppressWarnings("deprecation")
- static List<Record> getRecords(InputStream input) {
- try {
- POIFSFileSystem poifs = new POIFSFileSystem(input);
- InputStream stream = poifs.getRoot().createDocumentInputStream(
- "Workbook");
- return org.apache.poi.hssf.record.RecordFactory.createRecords(stream);
- } catch (IOException e) {
- logger.error("IO异常:" + e.getMessage() + "");
- e.printStackTrace();
- }
- return Collections.EMPTY_LIST;
- }
- static void convertLabelRecords(List records, int offset, Workbook workbook) {
- for (int k = offset; k < records.size(); k++) {
- Record rec = (Record) records.get(k);
- if (rec.getSid() == LabelRecord.sid) {
- LabelRecord oldrec = (LabelRecord) rec;
- records.remove(k);
- LabelSSTRecord newrec = new LabelSSTRecord();
- int stringid = workbook.addSSTString(new UnicodeString(oldrec
- .getValue()));
- newrec.setRow(oldrec.getRow());
- newrec.setColumn(oldrec.getColumn());
- newrec.setXFIndex(oldrec.getXFIndex());
- newrec.setSSTIndex(stringid);
- records.add(k, newrec);
- }
- }
- }
- public static byte[] getBytes(Workbook workbook, Sheet[] sheets) {
- // HSSFSheet[] sheets = getSheets();
- int nSheets = sheets.length;
- // before getting the workbook size we must tell the sheets that
- // serialization is about to occur.
- for (int i = 0; i < nSheets; i++) {
- sheets[i].preSerialize();
- }
- int totalsize = workbook.getSize();
- // pre-calculate all the sheet sizes and set BOF indexes
- int[] estimatedSheetSizes = new int[nSheets];
- for (int k = 0; k < nSheets; k++) {
- workbook.setSheetBof(k, totalsize);
- int sheetSize = sheets[k].getSize();
- estimatedSheetSizes[k] = sheetSize;
- totalsize += sheetSize;
- }
- logger.debug("分配内存" + totalsize + "bytes");
- byte[] retval = new byte[totalsize];
- int pos = workbook.serialize(0, retval);
- for (int k = 0; k < nSheets; k++) {
- int serializedSize = sheets[k].serialize(pos, retval);
- if (serializedSize != estimatedSheetSizes[k]) {
- // Wrong offset values have been passed in the call to
- // setSheetBof() above.
- // For books with more than one sheet, this discrepancy would
- // cause excel
- // to report errors and loose data while reading the workbook
- throw new IllegalStateException(
- "Actual serialized sheet size (" + serializedSize
- + ") differs from pre-calculated size ("
- + estimatedSheetSizes[k] + ") for sheet (" + k
- + ")");
- // write mis-aligned offsets either
- }
- pos += serializedSize;
- }
- return retval;
- }
- }
发表评论
-
POI导出大Excel问题
2010-10-28 15:41 3979前段时间,做POI导出的时候,应为数据量大(十万条数据),所以 ... -
Maven生命周期详解
2010-10-21 17:25 732Maven强大的一个重要的 ... -
log4j 详解
2010-10-09 15:37 797把log4j.properties或是log4j. ... -
Ant与Maven比较
2010-08-22 10:30 827两者之间的比较: 第一:ant脚本是可以直接运行在maven中 ... -
如何在tomcat下部署Drools的BRMS
2010-02-28 23:03 1702Installing BRMS in Tomcat 6.0.x ... -
jBPM工作流应用
2010-02-24 18:00 1370一、 环境配置 基础环 ... -
log4j 使用
2010-02-04 22:29 755在强调可重用组件开发的今天,除了自己从头到尾开发一个可重用的日 ... -
Drools安装配置学习笔记
2010-01-05 22:29 64011. 下载drools相关的最 ... -
Drools规则语法
2010-01-05 22:10 2165一个典型的DRL文件: Java代码 ①p ... -
maven2完全使用手册
2010-01-05 21:19 961Maven2完全使用手册 maven2 起步 相信ma ... -
JAVA EXCEL API简介
2009-12-01 09:57 1007JAVA EXCEL API简介 http://www.an ... -
POI HSSFSTYLE
2009-11-18 17:32 1194/** * 生成Excel表,可以指定行的高度以及对内容相同 ... -
POI读写Excel文件(转)- -
2009-11-18 17:28 2394Java代码 POI读写Exc ... -
POI操作Excel文档-中级篇
2009-11-18 17:01 10911、遍历workbook Java代码 ...
相关推荐
解决poi大数据量导出excel的代码,该代码中所用的jar包是poi3.9。在测试过程中单个sheet中导出20万数据没有问题。
java中使用poi导出Excel大批量数据 存在两个导出方法:存在一个分批量导出ZIP文件,一个导出exel文件
本篇文章将深入探讨如何利用POI高效地处理大数据量的导出。 首先,我们需要了解`DBUtil.java`和`LotExport.java`两个文件可能在项目中的作用。`DBUtil.java`通常包含了数据库操作的相关工具方法,比如连接数据库、...
1. **内存优化**:当数据量非常大时,建议使用Apache POI提供的SXSSF类来降低内存占用。 2. **性能考虑**:在实际应用中,应尽可能减少对Excel文件的读写操作,避免频繁创建和销毁对象。 3. **异常处理**:在处理...
在IT行业中,处理大数据量的Excel文件是一项挑战,特别是在数据导出时,如果单线程操作,可能会导致性能瓶颈和长时间的等待。Apache POI是一个流行的Java库,它允许开发者创建、修改和显示Microsoft Office格式的...
"使用POI导出大数据量到EXCEL"这个主题涉及到如何高效地利用POI处理大量数据并将其导出到Excel文件中。以下是对这个主题的详细讲解。 1. **Apache POI简介** Apache POI 是一个开源项目,它提供了Java API来创建、...
POI百万级大数据量EXCEL导出 - 请叫我猿叔叔的博客 - CSDN博客.htm
poi读取大量数据会造成gc内存溢出的报错,由于垃圾回收机制无法将大量的对象及时的回收,而这些对象又会保存在内存中,会导致内存不够用的情况,这时候我们就需要使用新的方法,读取为cvs即可.此解决方案可支持千万数据的...
- 导出:同样,先从数据库查询数据,转换为Excel所需的格式,再使用POI创建新的工作簿和工作表,填充数据,最后写入到OutputStream或者保存为文件。 ```java List<Student> students = studentMapper.selectAll()...
“大量数据导出”则强调了该方法适用于处理批量数据,比如用于报表生成、数据分析等场景。 从压缩包子文件的文件名称“excelExport”来看,这可能是包含主程序、模板文件或测试数据的文件夹,可能包含了示例模板、...
总的来说,Java结合Apache POI库实现Excel数据导出是企业级应用中常见的数据处理技术,能够有效地帮助用户处理大量数据,生成报表,或者进行数据交换。通过学习和实践这样的实例源码,开发者可以提高自己在文件操作...
大量数据导出时,一次性加载到内存可能导致内存溢出。为解决这个问题,可以采用流式处理(Streaming User Model)或分批处理。例如,使用SXSSF(Streaming Usermodel API)可以避免一次性加载所有数据,它会在磁盘...
在导出方面,POI能够根据业务需求生成包含大量数据的Excel文件,可以自定义样式、颜色、字体等,使得导出的文件既实用又美观。在批量导出时,尤其适用于需要将数据库查询结果或者处理后的数据以Excel形式分发给用户...
【作品名称】:基于Apache POI导出大数据量(百万级)Excel的实现 【适用人群】:适用于希望学习不同技术领域的小白或进阶学习者。可作为毕设项目、课程设计、大作业、工程实训或初期项目立项。 【项目介绍】:...
其次,在实验过程中,大数据量的导出很容易引发内存溢出,调整JVM的内存大小治标不治本。很多人建议保存为.CSV格式的文件。不过,.CSV方式导出也存在问题:首先,如果用excel来打开csv,超过65536行的数据都会看不见...
大量数据写入时,考虑使用`SXSSFWorkbook`,这是一个内存优化的版本,它允许以流式方式处理Excel文件,避免一次性加载整个文件到内存。 在提供的"ExcelUtil.java"文件中,可能包含了实现上述步骤的代码。通常,这...
在导出大数据量时,通过设置内存中的行数限制,可以有效防止内存溢出,同时保持较高的性能。 在"excelUtils"这个工具类中,我们可能会看到以下关键功能: 1. **模板导出**:用户可以预先定义Excel模板,包括单元格...
Apache POI是一个强大的Java库,专门用于处理Microsoft Office格式的文件,如Excel、Word和PowerPoint。在"基于poi的excel导入导出封装...通过学习和掌握Apache POI,你可以提高工作效率,处理大量数据变得更加便捷。
在Java开发中,有时我们需要将数据库中的数据导出到Excel文件,或者从Excel文件导入数据到数据库。Apache POI是一个流行的API,专为处理Microsoft Office格式的文件,如Excel(.xlsx, .xls)。本教程将详细介绍如何...
在Java开发中,处理大量数据导出到Excel文件是一个常见的需求,特别是在数据分析、报表生成或者数据备份等场景。本示例“java-poi-excel-导出20万条记录【源代码】”展示了如何使用Apache POI库来高效地处理大数据量...