PHP导出大量数据到CSV的实践与优化

导出excel的性能测试:https://www.jianshu.com/p/87ba0a2326f4
导出数据量很大的情况下,生成excel的内存需求非常庞大,服务器吃不消。又要兼顾客户查看,这个时候就只能生成csv来解决问题。

 'ID',
    'type' => '类型',
    'content' => '内容',
    'create_time' => '创建时间',
    'mark' => '备注'
];
$fields = '';
foreach ($titles as $k => $v) {
    $title .= $v.',';
    $fields .= $k.',';
}
$fields = rtrim($fields, ',');
// 数据库查询
$pdo = new PDO('mysql:host=127.0.0.1;dbname=test', 'root', 'root');
$res = $pdo->query('SELECT '.$fields.' from excel_test LIMIT 100000');
$res = $res->fetchAll(PDO::FETCH_ASSOC);
//  结果处理
$csv = $title."\n";
$fields = explode(',', $fields);
foreach ($res as $value) {
    $row = '';
    foreach ($fields as $field) {
        // 按照 fputcsv() 函数的处理方式
        if (strpos($value[$field],',') !== FALSE || strpos($value[$field],'"') !== FALSE) {
            $row .= '"'.str_replace('"','""',$value[$field]).'",';
        }else{
            $row .= $value[$field].',';
        }
    }
    $csv .= $row."\n";
}
file_put_contents('./test.csv',mb_convert_encoding($csv, "GBK", "UTF-8"),FILE_APPEND);

总结

  • 拼接csv时,更大的内存占用及峰值是在查询转换数据集的阶段,操作csv的内存占用相对来说非常之小。如果还会爆内存,建议采用多次查询数据库处理,如TP5提供的chunk()
  • 没有使用fputcsv()是因为每行写入一次文件会带来很大的磁盘I/O压力,磁盘是计算机里很慢的东西
  • fputcsv() 经测试如果列中有半角逗号或双引号,会加双引号做定界符,并将内部每个双引号替换成2个
  • 时间、内存占用都很好,所以就没记录具体占用。(内存主要受数据库阶段影响,时间很快)

你可能感兴趣的:(PHP导出大量数据到CSV的实践与优化)