前端百万级数据导出 Excel 方案

概述

后端业务平台经常遇到数据导出报表的需求,常用的方案是使用 excel.js + FileSaver.js处理。excel.js 支持在 node.js 服务端使用,也支持在浏览器端使用。在浏览器端使用时,数据量少的情况下,使用 workbook.xlsx.writeBuffer 可以轻松构建 Blob 数据,但数据量一旦增多,这个方法就会导致浏览器卡顿,甚至崩溃。但实际使用中,一旦数据量超过2万,浏览器崩溃的概率就大大增加了。

回到根源,正确的做法肯定是解析一段数据,创建一段 Blob,excel.js 不支持,我们也只能另谋出路了。

CSV(Comma-Separated Values),又称为“逗号分隔值文件格式”,大部分的 Excel 软件都支持解析该格式的文件。他的语法类似下面这样:

姓名,年龄,职位
张三,30,前端工程师
李四,31,产品经理
王五,30,JAVA工程师

其中,第一行为表头,后面的为每行数据,使用 Excel 软件打开效果如下:

前端百万级数据导出 Excel 方案_第1张图片
Excel 软件 查看 CSV 文件

所以,我们可以使用 CSV 格式导出数据。

方案思路

我们将按照下面的步骤实现数据 Excel 导出:

  • 第一步,把数据按照一定的数量拆分为若干数据片段:我们暂称之为“分片”,如:1000000 条数据,单次处理 10000 条,则可以拆分为 100 个分片。拆分的意义在于,我们可以控制单次处理的数据量,确保浏览器不会因为处理过多数据而卡死;
  • 第二步,创建一个 cvsArray = [] 的变量,用以存放将来生成的 csv 片段,该变量将存储一行一行的字符串,字符串的格式如:李四,31,产品经理\n
  • 第三步,创建表头行,内容如:姓名,年龄,职位\n
  • 第四部,遍历分片:遍历时,我们通常需要格式化数据(如:格式转换、千分位修正等),这一步将把每个分片转换为 CSV 片段;
  • 第五步,创建 Blob 对象,语法为:const blob = new Blob([String.fromCharCode(0xfeff), ... cvsArray], { type: "text/plain;charset=utf-8"});
  • 第六步,保存为 CSV 格式的文件:FileSaver.saveAs(blob, '导出.csv');

实现代码

示例代码为 Vue.js 工程,需要使用到 mockjs 和 file-saver 两个 package。

首先,我们创建一个生成指定长度数据的方法,该方法用于模拟后端接口返回数据:

import Mock from 'mockjs';

// 创建指定数量的数据(模拟后端接口)
export const getData = async (limit) => {
    return new Promise((resolve, reject) => {
        try {
            const Random = Mock.Random;

            // 创建指定个数的随机数据
            const data = new Array(limit).fill('').map((_, index) => {
                return {
                    id: `200820-${index}`,
                    username: Random.cname(),
                    url: Random.url('http'),
                    price: Random.float(0, 110000, 0, 2),
                    createAt: Random.datetime('yyyy-MM-dd HH:mm:ss'),
                };
            });

            resolve(data);
        } catch (error) {
            reject(error);
        }
    });
};

然后是导出代码:

// 导出数据为 CSV 格式
export const exportCsv = async (total = 0, size = 1000, onProcess = () => {}) => {
    try {
        if (!total) throw '无数据';

        // 分片
        const step = Math.ceil(total / size);

        // CSV 缓存
        let cvsArray = [];

        // 创建表头[一般表头由外部传入]
        cvsArray.push(['编号', '用户名', '官网', '报价', '创建日期'].join() + '\n');

        // 遍历分片
        for (let i = 0; i < step; i++) {
            await new Promise(async (resolve, reject) => {
                try {
                    // 创建指定个数的随机数据
                    const data = await getData(size);

                    // 格式化为 CSV 字符串
                    const csv = data.map(row => {
                        cvsArray.push(Object.values(row).join() + '\n');
                    });

                    // 统计进度
                    const process = (i / step) * 100;
                    console.log(`进度 ${Math.round(process)}%`);
                    onProcess(process);

                    // 适当暂停,避免页面无法执行渲染
                    await new Promise((_resolve) => {
                        setTimeout(() => _resolve(true), 50);
                    });

                    resolve(true);
                } catch (error) {
                    reject(error);
                }
            });
        }

        // 遍历完成时,固定进度为 100%
        onProcess(100);

        const blob = new Blob([String.fromCharCode(0xfeff), ...cvsArray], {
            type: "text/plain;charset=utf-8"
        });

        await FileSaver.saveAs(blob, 'file.csv');

        return true;
    } catch (error) {
        return Promise.reject(error);
    }
};

页面上会添加一个按钮,点击按钮执行导出:

// 
// 创建模拟数据
async exportCsv() {
  try {
    this.pending = true;
    await app.exportCsv(10000 * 120, 2000, (process) => {
      // 进度条更新
      this.csvProcess = process;
    });
  } catch (error) {
    alert(error);
  } finally {
    this.pending = false;
  }
},

上面的代码将导出 120万条数据,单次处理 2000 条数据。

测试验证

前端百万级数据导出 Excel 方案_第2张图片
测试验证

导出耗时 72866.2348 毫秒,约 72.87 秒。

前端百万级数据导出 Excel 方案_第3张图片
文件大小

由于数据字段比较少,生成的文件体积并不是很大。

前端百万级数据导出 Excel 方案_第4张图片
Excel 限制

很遗憾的是,使用的 WPS 软件无法打开超过这个数量级的数据。选择【确定】,最大只能显示 104 万 8 千条数据。

前端百万级数据导出 Excel 方案_第5张图片
image.png

注意:
1、CSV 格式可能导致某些数字以科学计数法显示(如:银行卡号、身份证号等),做法是,为数据添加 \t 之类的不可见字符;
2、导出的单元格是没有宽度的,这个知道如何处理的大神可以指教下;

总结

  • Blob 对象的性能的确很赞,处理大数据时也不会卡死;
  • 应该适当小的划分数据片段,减少单位时间内浏览器的负荷;
  • 这种数据导出,个人感觉应使用串行调用,意义在于:① 可以避免过多的分片导致接口响应超时;② 可以保证浏览器同一时间不用处理过多的数据;

你可能感兴趣的:(前端百万级数据导出 Excel 方案)