PHP+MySQL导出大量数据(Iterator yield)

    开发中经常遇到这样的场景

    产品汪:我要在后台做一个功能,可以导出自定义时间范围的订单信息。开发小哥二话不说,半天就把功能做完并上线了。结果,第二天一上班产品汪过来就是拍桌子:MD,我想把去年一整年的订单都导出来,结果后台直接就挂了!

    开发小哥一查,原来是内存溢出了,一年下来的的订单量足足有1000W条。于是,开发小哥跟产品汪吵了起来:你TM色不色傻,1000W的数据你导出来干diao,你是不是想把服务器给搞挂掉?

    于是,产品汪与程序狗就这么结下梁子了。

    但是。产品的需求你敢这样怼回去,那如果是老板提的这个需求呢,就是硬要把1000W条记录导出来,你还不得乖乖回去码代码?

    那么,这个如果真要导出这大量数据,该怎么做呢?开发中我们经常会使用框架来提高我们的开发效率,但也意味着框架会对一些数据进行封装。

    比如Yii2,当我们想获取去年一年的订单时,我们的代码会这样写:

    Order::find()->where("create_time between '2016-01-01' AND '2016-12-31'")->all();

    当我们将上面代码得到的结果集再拿去遍历时,数据量一大,就会内存溢出。

    原因是:Yii2中,对all方法进行了封将,将大量的数据存入了数组中,而遍历大数据,必然会导致内存迅速上升

    那如何取出大量数据,而又不存到数组中呢?这就要用到了PHP中的迭代器:Iterator。如果有看过PDO::query的返回值类型的话,我们会发现,这个方法返回的 PDOStatement,正是对 Iterator 的实现。关于 Iterator,请自行脑补。

    即然框架帮我们做了多余的封装,那么我们就改用原生API来实现。以下是完整代码

$sql = 'select * from user';
$pdo = new \PDO('mysql:host=127.0.0.1;dbname=test', 'root', 'root');
$pdo->setAttribute(\PDO::MYSQL_ATTR_USE_BUFFERED_QUERY, false);
$rows = $pdo->query($sql);
$filename = date('Ymd') . '.csv'; //设置文件名
header('Content-Type: text/csv');
header("Content-Disposition: attachment;filename={$filename}");
$out = fopen('php://output', 'w');
fputcsv($out, ['id', 'username', 'password', 'create_time']);

foreach ($rows as $row) {
    $line = [$row['id'], $row['username'], $row['password'], $row['create_time']];

    fputcsv($out, $line);
}

fclose($out);
$memory = round((memory_get_usage() - $startMemory) / 1024 / 1024, 3) . 'M' . PHP_EOL;
file_put_contents('/tmp/test.txt', $memory, FILE_APPEND);

        在表中生成7位数量级的记录,执行上面的代码,通过查看内存使用,发现整个过程只占用了0.XM的内存,完全没有任何内存溢出的现象。

原文链接:PHP+MySQL导出大量数据(Iterator yield)

你可能感兴趣的:(CTO)