python判断数据mongodb_python操作MONGODB数据库,提取部分数据再存储

目标:从一个数据库中提取几个集合中的部分数据,组合起来一共一万条。几个集合,不足一千条数据的集合就全部提取,够一千条的就用一万减去不足一千的,再除以大于一千的集合个数,得到的值即为所需提取文档的个数。从每个集合中提取的数据存放到新的对应集合中,新集合名称为原先集合加"_col"。

用到相关技术点:

操作MONGODB:

先通过IP和端口号连接到MONGODB所在的机器,得到一个MONGODB客户端对象,然后认证某个数据库的账号密码连接到该数据库,得到一个该数据库的对象。一个数据库下有很多集合(相当于SQL中的表),集合里数据存储格式是BSON(同JSON)格式,集合中有很多条文档(相当于SQL中的记录)。可以通过数据库对象得到一个集合的对象,通过集合的对象来进行数据库增删改查的操作。

MONGODB操作的函数:

创建数据库:mydb= myclient["runoobdb"]

查看该客户端的所有数据库:dblist= myclient.list_database_names()

判断数据库是否存在:if"runoobdb"indblist: print("数据库已存在!")

创建集合:mycol= mydb["sites"]

查看该数据库的所有集合:collist= mydb. list_collection_names()

判断集合是否存在:if"sites"incollist: print("集合已存在!")

插入一个文档:

mydict= { "name": "RUNOOB", "alexa": "10000", "url": "https://www.runoob.com"}

x= mycol.insert_one(mydict)

print(x)

输出结果:

insert_one() 方法返回 InsertOneResult 对象,该对象包含 inserted_id 属性,它是插入文档的 id 值。print(x.inserted_id)。如果我们在插入文档时没有指定 _id,MongoDB 会为每个文档添加一个唯一的 id。

插入多个文档:

mylist= [{ "name": "Taobao", "alexa": "100", "url": "https://www.taobao.com"}, { "name": "QQ", "alexa": "101", "url": "https://www.qq.com"}, { "name": "Facebook", "alexa": "10", "url": "https://www.facebook.com"}, { "name": "知乎", "alexa": "103", "url": "https://www.zhihu.com"}, { "name": "Github", "alexa": "109", "url": "https://www.github.com"} ]

x= mycol.insert_many(mylist)

# 输出插入的所有文档对应的 _id 值

print(x.inserted_ids)

插入查询结果文档集:

x.insert_many(mycol.find())

查询一条数据:

x= mycol.find_one()print(x)

查询集合中所有数据:

forxinmycol.find():

print(x)

查询指定字段:

forxinmycol.find({},{ "_id": 0, "name": 1, "alexa": 1}):  ##0表示该字段不出现,1表示该字段出现。除了_id字段,其他字段数字要一致,即要么都为0要么都为1。

print(x)

条件查询:

等值查询:

myquery= { "name": "RUNOOB"}

mydoc= mycol.find(myquery)

forxinmydoc:

print(x)

非等值查询:

# (>) 大于 - $gt

# (

# (>=) 大于等于 - $gte

# (<= ) 小于等于 - $lte

#例:查询集合中age大于25的所有记录

for i in my_col.find({"age":{"$gt":25}}):

print(i)

正则表达式查询:

## 读取 name 字段中第一个字母为 "R" 的数据

yquery= { "name": { "$regex": "^R"} }

mydoc= mycol.find(myquery)

forxinmydoc:

print(x)

查询指定条数记录:

## 返回 3 条文档记录

myresult= mycol.find().limit(3)

# 输出结果

forxinmyresult:

print(x)

查询结果集中第n条记录,及第n条记录某个字段的值:

## 查询按照alexa字段倒排后,第三条记录的alexa字段的值

condition = col.find().sort("alexa",-1)[3]["alexa"]

print(condition)

查询一个集合中总文档个数:

num_document = mycol.count_documents({})

print(num_document)

按照字段类型条件查找:

#找出name的类型是String的

for i in my_set.find({'name':{'$type':2}}):

print(i)

‘’‘类型对照列表'''

Double 1

String 2

Object 3

Array 4

Binary data 5

Undefined 6 已废弃

Object id 7

Boolean 8

Date 9

Null 10

Regular Expression 11

JavaScript 13

Symbol 14

JavaScript (with scope) 15

32-bit integer 16

Timestamp 17

64-bit integer 18

Min key 255 Query with -1.

Max key 127

limit和skip:

#limit()方法用来读取指定数量的数据

#skip()方法用来跳过指定数量的数据

#下面表示跳过两条数据后读取6条

for i in my_set.find().skip(2).limit(6):

print(i)

IN:

#找出age是20、30、35的数据

for i in my_set.find({"age":{"$in":(20,30,35)}}):

print(i)

OR:

#找出age是20或35的记录

for i in my_set.find({"$or":[{"age":20},{"age":35}]}):

print(i)

多级路径元素查找:

## 先插入一条数据

dic = {"name":"zhangsan",

"age":18,

"contact" : {

"email" : "[email protected]",

"iphone" : "11223344"}

}

my_set.insert(dic)

#多级目录用. 连接

for i in my_set.find({"contact.iphone":"11223344"}):

print(i)

#输出:{'name': 'zhangsan', '_id': ObjectId('58c4f99c4fc9d42e0022c3b6'), 'age': 18, 'contact': {'email': '[email protected]', 'iphone': '11223344'}}

排序:

## sort() 方法第一个参数为要排序的字段,第二个字段指定排序规则,1 为升序,-1 为降序,默认为升序。

## 对字段 alexa 按降序排序

mydoc= mycol.find().sort("alexa",-1)

forxinmydoc:

print(x)

删除一个文档:

## delete_one() 方法来删除一个文档,该方法第一个参数为查询对象,指定要删除哪些数据。

## 删除 name 字段值为 "Taobao" 的文档

myquery= { "name": "Taobao"}

mycol.delete_one(myquery)

# 删除后输出

forxinmycol.find():

print(x)

删除多个文档:

myquery= { "name": {"$regex": "^F"} }

x= mycol.delete_many(myquery)

print(x.deleted_count, "个文档已删除")

删除集合中所有文档:

## delete_many() 方法如果传入的是一个空的查询对象,则会删除集合中的所有文档

x= mycol.delete_many({})

print(x.deleted_count, "个文档已删除")

删除集合:

mycol= mydb["sites"]

mycol.drop()  ## 如果删除成功 drop() 返回 true,如果删除失败(集合不存在)则返回 false

修改一条记录:

## update_one() 方法修改文档中的记录。该方法第一个参数为查询的条件,第二个参数为要修改的字段。如果查找到的匹配数据多余一条,则只会修改第一条。

myquery= { "alexa": "10000"}

newvalues= { "$set": { "alexa": "12345"} }

mycol.update_one(myquery, newvalues)

# 输出修改后的 "sites" 集合

forxinmycol.find():

print(x)

修改多条记录:

## 将查找所有以 F 开头的 name 字段,并将匹配到所有记录的 alexa 字段修改为 123

myquery = { "name": { "$regex": "^F" } }

newvalues = { "$set": { "alexa": "123" } }

x = mycol.update_many(myquery, newvalues)

print(x.modified_count, "文档已修改")

config.py

## 数据库URL

MONGO_URL = 'mongodb://123.456.789.123:27017/'

## 数据库名称

MONGO_DB = 'hellodb'

mongodb_extract.py

#导入存储MONGODB数据库的配置信息

from config import *

import pymongo

## 定义一个mongodb客户端

client = pymongo.MongoClient(MONGO_URL)

## 连接数据库,账号密码认证

db = client[MONGO_DB]

db.authenticate("username", "password")

'''问题:此函数得到的平均数,可能有的集合文档数目达不到。或者说可以按照每个集合比例数目提取数据'''

def average_num():

'''返回一个不大于1000个文档的集合,所需提取文档的个数列表。使得所要提取的几个集合所有提取文档个数为10000。'''

## 所有不大于1000的集合中的文档个数之和

count = 0

## 不大于1000的集合个数

i = 0

## 大于1000的集合所需提取文档的个数的列表

extract_num = []

for collection in db.list_collection_names():

if "_col" not in collection:

col = db[collection]

num_document = col.count_documents({})

print(num_document)

if num_document <= 1000:

count += num_document

else:

i += 1

## (10000-所有<1000的集合的文档之和)/大于1000的集合个数,取整数

average = int((10000 - count) / i)

## (10000-所有<1000的集合的文档之和)% 大于1000的集合个数,求余

remainder = (10000 - count) % i

for j in range(i-1):

extract_num.append(average)

extract_num.append(average + remainder)

return extract_num

def extract_data():

'''取出所有数据'''

extract_num_list = average_num()

for collection in db.list_collection_names():

## 几个集合的名称,每个类一个集合

col = db[collection]

## 每个集合的文档个数

num_document = col.count_documents({})

if num_document <= 1000:

## 如果一个集合中文档数量不超过1000,全部提取存储

db[collection + "_col"].insert_many(col.find({},{"infoId":0,"update_author":0,"Customs":0,"Customs_branch":0}))

else:

## 如果集合文档大于1000,则提取根据日期排序最新的指定个数文档

## 指定数量文档为止的约束日期

condition = col.find().sort("report_time",-1)[extract_num_list.pop()]["report_time"]

## 将大于约束日期的数据提取并存储

db[collection + "_col"].insert_many(col.find({"report_time":{"$gte":condition}},{"infoId":0,"update_author":0,"Customs":0,"Customs_branch":0}))

def main():

extract_data()

if __name__ == '__main__':

main()

write_data.py

'''将提取后的数据集合分别写到对应的.json文件中'''

#导入存储MONGODB数据库的配置信息

from config import *

import pymongo

import json

## 定义一个mongodb客户端

client = pymongo.MongoClient(MONGO_URL)

## 连接数据库,账号密码认证

db = client[MONGO_DB]

db.authenticate("username", "password")

for collection in db.list_collection_names():

if "_col" in collection:

col = db[collection]

with open(collection[:-4] + '.json', 'a', encoding='utf-8') as f:  ## a表示文件可追加,编码utf-8防止中文乱码

for data in col.find():

#f.write(str(data) + '\n') ## str()写可以写入文件,但是写到文件中的每条数据不是json格式,而是字符串格式,json.dumps()写入的是json格式文件,也只有json格式文件才可用MONGODB客户端导入数据库。

f.write(json.dumps(data,ensure_ascii=False) + '\n')  ## json.dumps()得到的数据默认是ascii编码,这里ensure_ascii=False不让它编码为ascii格式。

f.close()

参考:http://www.runoob.com/python3/python-mongodb.html

https://www.cnblogs.com/melonjiang/p/6536876.html

你可能感兴趣的:(python判断数据mongodb_python操作MONGODB数据库,提取部分数据再存储)