SpringBoot 那年我双手插兜,手写一个excel导出
Posted Java知音_
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了SpringBoot 那年我双手插兜,手写一个excel导出相关的知识,希望对你有一定的参考价值。
前言
其实就是利用了csv 和txt 文件转换 。
不多说,开始玩代码。
正文
本篇内容:
了解根本生成excel内容的CSV文件玩法
手动拼接文本演示
项目内实战写法,从数据库到导出
解决list数据过多,使用分批分页处理生成csv (EXCEL)
思路:
创建csv文件, 往里面写入符合转换成csv文件的内容 即可。
① 了解根本生成excel内容的CSV文件玩法
先看看什么原理 :
首先我们创建一个csv文件
然后打开里面填充一些数据:
然后反手把文件后缀改成.txt 看看里面是啥 :
看看里面:
② 手动拼接文本演示
工具类 :
MyCsvFileUtil.java
import lombok.extern.slf4j.Slf4j;
import org.apache.commons.io.IOUtils;
import java.io.File;
import java.io.FileOutputStream;
import java.io.IOException;
import java.io.OutputStreamWriter;
@Slf4j
public class MyCsvFileUtil
public static final String CSV_DELIMITER = ",";
public static final String CSV_TAIL = "\\r\\n";
/**
* 将字符串转成csv文件
*/
public static void createCsvFile(String savePath,String contextStr) throws IOException
File file = new File(savePath);
//创建文件
file.createNewFile();
//创建文件输出流
FileOutputStream fileOutputStream = new FileOutputStream(file);
//将指定字节写入此文件输出流
fileOutputStream.write(contextStr.getBytes("gbk"));
fileOutputStream.flush();
fileOutputStream.close();
/**
* 写文件
*
* @param fileName
* @param content
*/
public static void writeFile(String fileName, String content)
FileOutputStream fos = null;
OutputStreamWriter writer = null;
try
fos = new FileOutputStream(fileName, true);
writer = new OutputStreamWriter(fos, "GBK");
writer.write(content);
writer.flush();
catch (Exception e)
log.error("写文件异常|", e);
finally
if (fos != null)
IOUtils.closeQuietly(fos);
if (writer != null)
IOUtils.closeQuietly(writer);
演示拼接调用工具类生成CSV文件:
@RequestMapping("/createCsvFileTest")
public void doTest() throws IOException
//存放地址
String path = "D:\\\\mycsv\\\\test.csv";
String word = "";
//表头固定好
String tableNames = "CODE,NAME,PARENT_CODE,FULL_NAME";
//数据内容。
String oneRows = "110100,北京市,110000,北京北京市";
String twoRows = "110101,东城区,110100,北京北京市东城区";
String threeRows = "110102,西城区,110100,北京北京市西城区";
String fourRows = "110105,朝阳区,110100,北京北京市朝阳区";
//拼接
word += tableNames + "\\r\\n";
word += oneRows+ "\\r\\n";
word += twoRows+ "\\r\\n";
word += threeRows+ "\\r\\n";
word += fourRows+ "\\r\\n";
//调用方法生成
MyCsvFileUtil.createCsvFile(path,word);
代码简析:
调用这个示例接口,看看效果:
③ 项目内实战写法,从数据库到导出
接口使用写法:
@RequestMapping("/createCsvFileTest2")
public void createCsvFileTest2() throws IOException
List<District> districts = districtMapper.queryByParentCodes(Arrays.asList("110100"));
//存放地址&文件名
String fileName = "D:\\\\mycsv\\\\test2.csv";
String tableNames = "CODE,NAME,PARENT_CODE,FULL_NAME"+MyCsvFileUtil.CSV_DELIMITER;
//创建文件
MyCsvFileUtil.createCsvFile(fileName,tableNames);
//写入数据
String contentBody =buildCsvFileBody(districts);
//调用方法生成
MyCsvFileUtil.createCsvFile(fileName,contentBody);
解析数据list 做内容拼接处理 函数:
ps: 表头 多少个,字段就多少个, 默认值赋值啥的,格式转换啥的都可以,只要每一行数量对的上即可,每一个最后结尾的标记就是
String CSV_TAIL = "\\r\\n"
@RequestMapping("/createCsvFileTest2")
public void createCsvFileTest2() throws IOException
List<District> districts = districtMapper.queryByParentCodes(Arrays.asList("110100"));
//存放地址&文件名
String fileName = "D:\\\\mycsv\\\\test2.csv";
String tableNames = "CODE,NAME,PARENT_CODE,FULL_NAME"+MyCsvFileUtil.CSV_TAIL;
//创建文件
MyCsvFileUtil.writeFile(fileName,tableNames);
//写入数据
String contentBody =buildCsvFileBody(districts);
//调用方法生成
MyCsvFileUtil.writeFile(fileName,contentBody);
事不宜迟,看看接口调用效果:
可以看到从数据量里面查出来这 16条数据,list集合:
最后转换生成文件:
可以看到成功出货:
那么问题来了,如果我们需要导出的数据条数很多,拼接的contentBody 会非常长。
那么我们就需要考虑分批查询、分批拼接处理、分批写入,按照实际业务场景和数据长度去考量,每一批的限制。 甚至还可以实现拼接好每一批,然后慢慢再根据当前批次ID,做顺序写入。
④ 解决list数据过多,使用分批分页处理生成csv (EXCEL)
抛转引玉,给大家整个简单的分批玩法,生成csv 。
改造点1 , 整一个分页查询。
老面孔手动分页DTO:
import lombok.Data;
/**
* @Author: JCccc
* @Date: 2022-6-15 16:53
* @Description:
*/
@Data
public class PageLimitDTO
private Integer pageSize;
private Integer currIndex;
工具类 MyPageCutUtil.java
import lombok.extern.slf4j.Slf4j;
import java.util.LinkedList;
import java.util.List;
@Slf4j
public class MyPageCutUtil
public static List<PageLimitDTO> getPageLimitGroupList(Integer totalCount, Integer batchSizeLimit)
log.info("这一次处理的总数据条数为 = 条, 每一批次处理条数为 = 条,现在开始做分批切割处理。",totalCount,batchSizeLimit);
int pageNum = totalCount / batchSizeLimit;
int surplus = totalCount % batchSizeLimit;
if (surplus > 0)
pageNum = pageNum + 1;
List<PageLimitDTO> pageLimitGroupList =new LinkedList<>();
for(int i = 0; i < pageNum; i++)
Integer currIndex = i * batchSizeLimit;
PageLimitDTO pageLimitDTO=new PageLimitDTO();
pageLimitDTO.setPageSize(batchSizeLimit);
pageLimitDTO.setCurrIndex(currIndex);
pageLimitGroupList.add(pageLimitDTO);
log.info("分批切割,第=次,每次=条,最终会处理到=条。",pageLimitGroupList.size(),batchSizeLimit,currIndex+batchSizeLimit);
log.info("这一次处理的总数据条数为 = 条, 每一批次处理条数为 = 条,总共切割分成了 = 次,一切准备就绪。",totalCount,batchSizeLimit,pageLimitGroupList.size());
return pageLimitGroupList;
老面孔手动分页统计sql :
mapper 简单打个样
/**
* 统计所有符合搜索条件的数据
* @param codeList
* @return
*/
int getCountAllList(@Param("codeList") List<String> codeList);
对应xml 的sql
<select id="getCountAllList" resultType="java.lang.Integer">
SELECT
COUNT(*)
FROM district_info
WHERE PARENT_CODE IN
<foreach collection="codeList" item="code" open="(" separator="," close=")">
#code
</foreach>
</select>
老面孔手动分页查询sql:
/**
* 手动分页查询
* @param codeList
* @param currIndex
* @param pageSize
* @return
*/
List<District> getPageList(@Param("codeList") List<String> codeList,Integer currIndex,Integer pageSize);
sql:
<select id="getPageList" resultMap="BaseResultMap">
SELECT
<include refid="Base_Column_List"/>
FROM district_info
<where>
<if test="codeList != null and !codeList.isEmpty()">
PARENT_CODE IN
<foreach collection="codeList" item="code" open="(" separator="," close=")">
#code
</foreach>
</if>
</where>
LIMIT #currIndex , #pageSize
</select>
ok接下来继续改造我们的分批查询,处理数据:
@RequestMapping("/createCsvFileTest3")
public void createCsvFileTest3() throws IOException
//存放地址&文件名
String fileName = "D:\\\\mycsv\\\\test3.csv";
String tableNames = "地域编码,地域名称,父级编码,地域全称" + MyCsvFileUtil.CSV_TAIL;
//创建文件
MyCsvFileUtil.writeFile(fileName, tableNames);
//获取数据总计数
Integer totalCount = districtMapper.getCountAllList(null);
//每批同步的数据条数
Integer batchSizeLimit = 500;
//分批切割处理
List<PageLimitDTO> pageLimitGroupList = MyPageCutUtil.getPageLimitGroupList(totalCount, batchSizeLimit);
int count = 1;
//物理批次查询
for (PageLimitDTO pageBatchLimit : pageLimitGroupList)
List<District> pageBatchList = districtMapper.getPageList(null, pageBatchLimit.getCurrIndex(), pageBatchLimit.getPageSize());
if (!CollectionUtils.isEmpty(pageBatchList))
//写入数据
String contentBody = buildCsvFileBody(pageBatchList);
//调用方法生成
MyCsvFileUtil.writeFile(fileName, contentBody);
log.info("第批次,District数据处理结束执行", count);
count = count + 1;
代码简析:
OK,调用一下接口,看看效果:
打开看看数据:
ps:还有没有优化封装余地?
有的,文中讲到了,还可以考虑加上整个大批次的ID,然后考虑并行查询,并行拼接后,再按顺序插入。
有想法的还可以写个注解,标记相关表头别名,是否参与导出,然后再拼接的时候魔改一手,反射自动拿字段属性等等。
作者:小目标青年
来源:blog.csdn.net/qq_35387940/article/
details/128292691
推荐
PS:因为公众号平台更改了推送规则,如果不想错过内容,记得读完点一下“在看”,加个“星标”,这样每次新文章推送才会第一时间出现在你的订阅列表里。点“在看”支持我们吧!
以上是关于SpringBoot 那年我双手插兜,手写一个excel导出的主要内容,如果未能解决你的问题,请参考以下文章
解放双手!无需注解快速生成API文档,跟SpringBoot绝配!