教你急速快速批量插入1000万条数据到mysql数据库表&面试题

急速快速批量插入1000万条数据到mysql数据库表面试题

教你急速快速批量插入1000万条数据到mysql数据库表&面试题

我用到的数据库为,mysql数据库5.7版本的

1.首先自己准备好数据库表

其实我在插入1000万条数据的时候遇到了一些问题,现在先来解决他们,一开始我插入100万条数据时候报错,控制台的信息如下:

com.mysql.jdbc.PacketTooBigException: Packet for query is too large (4232009 > 4194304). You can change this value on the server by setting the max_allowed_packet’ variable.

出现上面的错误是因为数据库表的** max_allowed_packet**这个配置没配置足够大,因为默认的为4M的,后来我调为100M就没报错了

set global max_allowed_packet = 10010241024* 记住,设置好后重新登录数据库才能看的设置后的值show VARIABLES like ‘%max_allowed_packet%’

Java的jdbc代码如下:

package insert;

import java.sql.Connection;

import java.sql.DriverManager;

import java.sql.SQLException;

import java.util.Date;

import com.mysql.jdbc.PreparedStatement;

public class InsertTest {

 public static void main(String[] args) throws ClassNotFoundException, SQLException {

     final String url = "jdbc:mysql://127.0.0.1/teacher" ; 

     final String name = "com.mysql.jdbc.Driver" ; 

     final String user = "root" ; 

     final String password = "123456" ; 

     Connection conn = null ; 

     Class.forName(name); //指定连接类型 

     conn = DriverManager.getConnection(url, user, password); //获取连接 

     if (conn!= null ) {

         System.out.println( "获取连接成功" );

         insert(conn);

     } else {

         System.out.println( "获取连接失败" );

     }



 }

 public static void insert(Connection conn) {

     // 开始时间

     Long begin = new Date().getTime();

     // sql前缀

     String prefix = "INSERT INTO t_teacher (id,t_name,t_password,sex,description,pic_url,school_name,regist_date,remark) VALUES " ;

     try {

         // 保存sql后缀

         StringBuffer suffix = new StringBuffer();

         // 设置事务为非自动提交

         conn.setAutoCommit( false );

         // 比起st,pst会更好些

         PreparedStatement  pst = (PreparedStatement) conn.prepareStatement( "" ); //准备执行语句

         // 外层循环,总提交事务次数

         for ( int i = 1 ; i <= 100 ; i++) {

             suffix = new StringBuffer();

             // 第j次提交步长

             for ( int j = 1 ; j <= 100000 ; j++) {

                 // 构建SQL后缀

                 suffix.append( "('" + uutil.UUIDUtil.getUUID()+ "','" +i*j+ "','123456'" + ",'男'" + ",'教师'" +",'www.bbk.com'" + ",'XX大学'" + ",'" + "2016-08-12 14:43:26" + "','备注'" + ")," );

             }

             // 构建完整SQL

             String sql = prefix + suffix.substring( 0 , suffix.length() - 1 );

             // 添加执行SQL

             pst.addBatch(sql);

             // 执行操作

             pst.executeBatch();

             // 提交事务

             conn.commit();

             // 清空上一次添加的数据

             suffix = new StringBuffer();

         }

         // 头等连接

         pst.close();

         conn.close();

     } catch (SQLException e) {

         e.printStackTrace();

     }

     // 结束时间

     Long end = new Date().getTime();

     // 耗时

     System.out.println( "1000万条数据插入花费时间 : " + (end - begin) / 1000 + " s" );

     System.out.println( "插入完成" );

 }

}

**  结果:**

1000万条数据288秒完成,是不是感觉超级牛逼,我每次插入10万条数据就提交一次事务,如果是一条一条差的话估计要好几个小时,网上有人试过时间浪费在数据库的连接上了,

后来我想测试插入100万条数据时候数据库引擎的差别

首先把代码中最外层的循环i=100改为i=10;

1.数据库引擎为MyISAM时:27s,这个我忘了截图了。因为我后来测试InnoDB的时候我换了一个表来测试,因为我发现改不了数据库表的引擎。。。。所以只能换一个表来测试

1.数据库引擎为InnoDB时:

用了77秒,比MyISAW慢了3倍左右,估计要是1000万条数据的时候更慢吧。。。

转载于:https://blog.csdn.net/weixin_34087307/article/details/92395335

你可能感兴趣的:(教你急速快速批量插入1000万条数据到mysql数据库表&面试题)