(python)大量数据乱序思路以及核心代码

一、前言

笔者做过一次项目,其中要求对几十亿条数据顺序乱序。做这个项目的时候,笔者切实的感到了大量数据和少量数据的不同。受到时间和空间条件的制约,我们无法将所有数据放到内存中的时候,或者说即便放进去速度也不符合要求的时候,就迫使我们想别的办法。

二、思路

1、少量数据乱序是有函数的,在Ubuntu中有“shuffle”,python中导入random模块之后,对列表list乱序的操作为:random.shuffle(list),在笔者电脑上测试的时候,每次处理200w行数据的乱序的时候还是比较合适的,再大就变慢很多了。
另外我们也可以利用集合set()无序的特点,将列表转化为set()再转化回列表,但这样效果不好结果也得不到保证,因此不推荐使用。
2、大量数据乱序的时候,我们可以用“分而治之”的思路,将数据顺序截取分解存储在100w/个的文件里。
3、使用os模块将文件名存储在列表中,对这个文件名列表进行乱序。
4、按照文件名列表打乱后的顺序,每两个文件拼接存储到一个列表中,组成一个200w的列表,对这个列表乱序,然后平分写回文件,依此类推。

三、优点

1、利用系统函数shuffle,以及分治思想,节约了大量的时间和空间。
2、这样循环一遍之后,每个文件中都含有200w的1/2,重复步骤3、4。理想状态下,下次循环完每个文件中将存有400w的1/4,再下一次将含有800w的1/8,指数增长,从而较快达到乱序的目的。
3、在尽量不影响速度的前提下,将文件存储的尽可能大,可以减少开闭文件耗费的时间。

4、核心代码

import random
import os
import time

#建立10个顺序文件
def write_files(Filepath):
    num,n=0,0
    while(num<10):
        f1=open(Filepath+str(num)+".txt","w")
        for i in range(n,n+100):
            f1.write(str(i)+"\n")
        f1.close()
        num+=1
        n+=100

        


#将列表切割成一半,因为n是list_file长度的一半
def cut_list(list_file, n):
    list1,list2=list_file[0:n],list_file[n:]
    return [list1,list2]

#文件之间乱序,然后切割
def exchange_ips(Filepath):
    pathDir =  os.listdir(Filepath)
    random.shuffle(pathDir)
    file_index,l=0,len(pathDir)
    #按照此时顺序,文件之间两两交换
    while(file_index+10):
        a=a-1
        exchange_ips(Filepath)

你可能感兴趣的:(算法,python,大数据)