package com.resoft.prophet.util; import java.io.BufferedWriter; import java.io.File; import java.io.FileInputStream; import java.io.FileNotFoundException; import java.io.FileOutputStream; import java.io.IOException; import java.io.OutputStreamWriter; import java.util.ArrayList; import java.util.Iterator; import java.util.LinkedHashMap; import java.util.List; import java.util.Map; import javax.servlet.http.HttpServletResponse; import org.apache.commons.beanutils.BeanUtils; /** * @作者: liwenjie * @日期: 2010-03-27 * @描述: CSV导出工具 */ public class CSVUtils { /** * 导出为CVS文件 * * @param exportData */ public static File createCSVFile(List exportData, LinkedHashMap rowMapper, String outPutPath) { File csvFile = null; BufferedWriter csvFileOutputStream = null; try { csvFile = File.createTempFile("temp", ".csv", new File(outPutPath)); // GB2312使正确读取分隔符"," csvFileOutputStream = new BufferedWriter(new OutputStreamWriter(new FileOutputStream(csvFile), "GB2312"), 1024); // 写入文件头部 for (Iterator propertyIterator = rowMapper.entrySet().iterator(); propertyIterator.hasNext();) { java.util.Map.Entry propertyEntry = (java.util.Map.Entry) propertyIterator.next(); csvFileOutputStream.write("\"" + propertyEntry.getValue().toString() + "\""); if (propertyIterator.hasNext()) { csvFileOutputStream.write(","); } } csvFileOutputStream.newLine(); // 写入文件内容 for (Iterator iterator = exportData.iterator(); iterator.hasNext();) { Object row = (Object) iterator.next(); for (Iterator propertyIterator = rowMapper.entrySet().iterator(); propertyIterator.hasNext();) { java.util.Map.Entry propertyEntry = (java.util.Map.Entry) propertyIterator.next(); csvFileOutputStream.write("\"" + BeanUtils.getProperty(row, propertyEntry.getKey().toString()).toString() + "\""); if (propertyIterator.hasNext()) { csvFileOutputStream.write(","); } } if (iterator.hasNext()) { csvFileOutputStream.newLine(); } } csvFileOutputStream.flush(); } catch (Exception e) { e.printStackTrace(); } finally { try { csvFileOutputStream.close(); } catch (IOException e) { e.printStackTrace(); } } return csvFile; } /** * 导出为CSV文件 * * @param response * @param exportData * @param propertyNames * @param fileName * @param outputPath * @throws FileNotFoundException */ public static void exportToCSVFile(HttpServletResponse response, List exportData, LinkedHashMap rowMapper, String fileName, String outputPath) throws FileNotFoundException { File csvFile = createCSVFile(exportData, rowMapper, outputPath); FileUtils.downFile(response, fileName, new FileInputStream(csvFile)); csvFile.delete(); } public static void main(String[] args) { List exportData = new ArrayList<Map>(); Map row1 = new LinkedHashMap<String, String>(); row1.put("1", "11"); row1.put("2", "12"); row1.put("3", "13"); row1.put("4", "14"); exportData.add(row1); row1 = new LinkedHashMap<String, String>(); row1.put("1", "21"); row1.put("2", "22"); row1.put("3", "23"); row1.put("4", "24"); exportData.add(row1); List propertyNames = new ArrayList(); LinkedHashMap map = new LinkedHashMap(); map.put("1", "第一列"); map.put("2", "第二列"); map.put("3", "第三列"); map.put("4", "第四列"); CSVUtils.createCSVFile(exportData, map, "c:/"); } }
上述为导出为csv的代码,rowmapper存储列头以及数据的属性字符串,通过反射,得到bean中的属性值,此hashmap为linkedhashmap,确保列头有序,该代码可以从IBatis中得到List<Map>,List<实体类>,然后统一导出。
注意:需要注意的是写入文件时指定的是GB2312的编码,如果指定为UTF-8的编码,采用Excel打开为乱码,如果不写编码,默认为操作系统的编码,导出后采用Editplus打开为GB3212编码,考虑到服务器的默认编码可能不是客户端的中文操作系统的GB2312的编码,因此我们显示指定编码为GB2312。如果设置为UTF-8编码,Excel之所以为乱码,应该是Office程序按照操作系统的编码读取文件。
如果采用UNICODE编码,逗号可能无法正确解析,数据将合并为一列
对于ANSI编码用Excel可以正确打开无乱码,如果是中文windows平台,据说会转译为GB312,如果是日文的操作系统,转译为日文编码。
对于ANSI编码和GB2312编码的区别,需要再研究。
最近一直探索大数据量导出Excel的方案,采用导出为csv是一种比较变通的方式。