俩文件夹去重

俩文件夹去重

(根据一个文件夹对另一个文件夹含有这个文件夹中的文件进行去重)我的需要是将另一个文件夹中重复的进行删除。
因为量大,合并较慢,所以用python代码写一个进行去重。

代码:

	import os
	import time
	def remove_repetition(old_path,new_path):
	    print(1)
	    print(os.getcwd())
	    os.chdir(old_path)
	    print(2, os.getcwd())
	    same_key = []
	    print('\n')
	    print(os.listdir())
	    # print(type(os.listdir()),len(os.listdir()))
	    # 获取已经存在的key
	    key_list = iter(os.listdir())
	
	    # 切换到需要检查的是否重复的key目录:
	    os.chdir(new_path)
	
	    # 去重
	    for key in key_list:
	        is_exist = os.path.isfile(key)
	        print(is_exist)
	        if is_exist:
	            same_key.append(key)
	            os.remove(key)
	
	    # 输出去重的命名
	    print('over', same_key)
	    print('same_key', len(same_key))
	
	
	if __name__ == '__main__':
	    start_time = time.time()
	    # 已经保存的文件文件夹
	    old_path = r'D:\zjf_workspace\001-地标、利器、服饰\004文本\百度isbn-json-非selenium4'
	
	    # 未保存(需要去重的文件)
	    new_path = r'D:\zjf_workspace\001-地标、利器、服饰\004文本\百度isbn-json-非selenium5'
	    remove_repetition(old_path=old_path,new_path=new_path)
	    end_time = time.time()
	    print(end_time-start_time, '秒')

有更好的方法,提高效率的还请不吝赐教哈。

你可能感兴趣的:(Windows文件处理,Windows文件夹中文件去重)