目的:pymysql往mysql数据库批量塞大量数据(百万单位)

原文链接: https://www.cnblogs.com/benjieqiang/p/11372532.html

目的:pymysql往mysql数据库批量塞大量数据(百万单位)

环境:

系统:centos7.5
环境:mysql5.7.24 / python 2.7.5

思路:

先创建一个自定义的数据库表;
生成一个列表,列表中的数据应该和数据库表中的每一列对应;
利用cursor.executemany 批量插入列表中的数据。
注意点:#
批量添加数据时,数据格式必须list[tuple(),tuple(),tuple()] 或者tuple(tuple(),tuple(),tuple())

# -*- coding: utf-8 -*-
# Author:benjamin

import pymysql

# 创建连接
conn = pymysql.connect(host='192.168.214.128', port=3306, user='root', passwd='ben123', db='db2')

# 创建游标
cursor = conn.cursor()

def createTable():
    '''
    创建数据库表
    :return:
    '''
    
    try:
        sql = '''
            create table mytable (
            nid int not null auto_increment primary key,
            name varchar(255) not null,
            email varchar(255) not null,
            extra text
            )engine=innodb default charset=utf8
        '''
        cursor.execute(sql)
        conn.commit()
        print('create table ok!')
    except Exception as e:
        print(e)


def myList(value):
    '''
    生成一个列表,[('admin1', 'admin1qq.com', 'hahaadmin1'),...]
    :param value: 自定义的数据量
    :return: new_list
    '''
    new_list = [] # 新建一个空列表用来存储元组数据

    for i in range(1, value + 1):

        name = 'admin'+ str(i)
        email = name + '@qq.com'
        extra = 'I am '+ name

        tup = (name,email,extra) # 构造元组
        new_list.append(tup)  # [(),(),()...]

    print("*"*5+"generate list ok"+"*"*5)
    return new_list


def myInsert(newList):
    '''
    数据库插入
    :param newList: 传入的列表数据
    :return:
    '''

    try:
        sql = "insert into mytable(name,email,extra) values(%s,%s,%s)" # 要插入的数据
        cursor.executemany(sql,newList) # 执行插入数据

        conn.commit()
        cursor.close()
        conn.close()
        print('insert ok')
    except Exception as e:
        print(e)


if __name__ == '__main__':

    # 创建数据表
    createTable()
    # 选择要插入的数据量
    value = 1000000 # 定义数据量
    newList = myList(value)
    myInsert(newList)

参照了该链接作者的demo,然后模拟插入批量数据成功,代码如下:

# -*- coding: utf-8 -*-
# Author:benjamin

import pymysql

# 创建连接
conn = pymysql.connect(host='192.168.1.18', port=3306, user='root', passwd='123456', db='test_data')

# 创建游标
cursor = conn.cursor()

def createTable():
    '''
    创建数据库表
    :return:
    '''
	
    try:
        sql = '''
            create table mytable (
            nid int not null auto_increment primary key,
            name varchar(255) not null,
            email varchar(255) not null,
            extra text
            )engine=innodb default charset=utf8
        '''
        cursor.execute(sql)
        conn.commit()
        print('create table ok!')
    except Exception as e:
        print(e)


def myList(value):
    '''
    生成一个列表,[('admin1', 'admin1qq.com', 'hahaadmin1'),...]
    :param value: 自定义的数据量
    :return: new_list
    '''
    new_list = [] # 新建一个空列表用来存储元组数据

    for i in range(value - 9999, value + 1):

        name = 'test'+ str(i)
        email = name + '@qq.com'
        extra = 'I am '+ name

        tup = (name,email,extra) # 构造元组
        new_list.append(tup)  # [(),(),()...]

    return new_list


def myInsert(newList, i):
    '''
    数据库插入
    :param newList: 传入的列表数据
    :return:
    '''

    try:
        sql = "insert into mytable(name,email,extra) values(%s,%s,%s)" # 要插入的数据
        cursor.executemany(sql,newList) # 执行插入数据

        conn.commit()

        print('insert ok' + str(i))
    except Exception as e:
        print(e)


if __name__ == '__main__':
	
	#已经建立了表,故不需要建立表
    # 创建数据表
    #createTable()
    # 选择要插入的数据量
    
	#添加100w条数据,name从test1到test1000000,一次插入一万条
	for i in range(1, 101):
        newList = myList(i * 10000)
        myInsert(newList, i)
		
	#关闭连接	
	cursor.close()
    conn.close()

PS: 注意事项

  1. 远程添加速度较慢,特别是数据较大的时候,比较好的方法是在mysql主机的服务器上运行python脚本。
  2. python主机上运行时候,如缺少pymysql依赖,可以直接从其他机器拷贝过去(具体方法是直接将整个pymysql包拷贝过去,放在脚本同目录,直接python 脚本,即可执行)。
  3. 若想隐藏脚本,可以直接生成pyc文件,运行pyc即可。

补充,生成pyc的方式如下:

#最简单的方法是编写一个编译python
# -*- coding: utf-8 -*-
import py_compile

#设置编译文件和目标文件
py_compile.compile('test.py', 'test.pyc')

你可能感兴趣的:(Python,mysql)