最近在处理一些专利数据,从专利局爬数据的时候,总会间隙性出现中断,为了保证数据的完整性就进行了一些重复下载。将数据从几万个Excel表格中导入Mongodb后,第一步就是要去掉重复的数据。我的第一反应是写个Python小脚本,结果在执行的时候,由于数据量确实比较大,有十几万条,执行了半个小时仍不见结束。这时候才想着使用数据库的查询命令是不是可以实现去重复的功能。简单搜索实践后总结如下:
1. 使用Python小脚本去重复的代码:
# -*- coding: utf-8 -*-
#
# @Author [email protected]
#
import os
import io
import sys
from pymongo import *
reload(sys)
sys.setdefaultencoding( "utf-8" )
client = MongoClient(address, port)
db_data = client.db_name
collection_patent = db_data.collection_name
patents = {}
count = 0
for patent_record in collection_patent.find({"_id":{"$ne":0}}):
if patent_record['public_no'] not in patents.keys():
patents[patent_record['public_no']] = patent_record
else:
count += 1
collection_patent.delete_one({"public_no":patent_record['public_no']})
print count
2.使用ensureIndex
建立索引来删除重复记录,此命令适用于Mongodb 3.0
以下版本。在Mongodb3.0
以上版本,ensureIndex
已经被createIndex
取代了,同时dropDups
选项也已经被移除了,所以不能再使用以上命令来去掉重复数据:
db.your_collection.ensureIndex({public_no:1}, {unique: true, dropDups: true})
3.下面提供一种比较简单的巧方法:
mongoexport.exe -d database_name -c collection_name -o filename.json
db.yourcollection.remove({})
db.yourcollection.createIndex({public_no:1}, {unique:true})
mongoimport -d database_name -c collection_name --upsert filename.json
-d 数据库名
-c 集合名
-o 导出后的目录及文件名
--upsert 会根据唯一索引去掉重复记录