用requests爬取数据库并转换成EBL下载链接

之前老师给了我一个储存RNA-seq和Ribo-seq数据的数据库translatome db让我在上面下数据,但是这个数据库本身并不存储测序数据,每一组数据需要点击后面的链接,得到相应的NCBI链接,再去根据链接自行下载:

用requests爬取数据库并转换成EBL下载链接_第1张图片
数据库截图

这样一个一个操作太过于麻烦,上千组数据可以点到毕业,所以必须用爬虫爬取。记得当年出于学习的目的用实验室电脑在P站上爬过1T的人体写真,虽然这些图片至今我一眼都没看过,但我有一个朋友看了之后说还不错。
言归正传,首先想到的是python自带的requests库:
官方文档截图

官方文档截图

看得出来作者也是个逗比。
我的目的很明确,爬取网站上左右Ribo-seq数据的SRR编号,方便转化为下载链接。
首先,进入网站包含SRR号码的页面,右键网页,检查元素,看看我们要的SSR号藏在哪里:


用requests爬取数据库并转换成EBL下载链接_第2张图片
检查元素.PNG

可以发现data-index代表不同的数据,而所有的信息就包含在不同的index里。看起来很简单。

  1. 第一步,加载包并设定网站url和请求头:
import requests
import json
import pandas as pd

url = 'http://www.translatomedb.net/SWSYWS.asmx/searchExperimentalData'
header={'User-Agent':'Mozilla/5.0 (Macintosh; Intel Mac OS X 10.15; rv:77.0) Gecko/20100101 Firefox/77.0',
        'Host':'www.translatomedb.net',
        'Content-Type': 'application/json; charset=UTF-8',
        'Accept': 'application/json, text/javascript, */*; q=0.01',
        'Accept-Encoding': 'gzip, deflate',
        'Referer': 'http://www.translatomedb.net/searchDownload.html',
        'Origin': 'http://www.translatomedb.net',
        'Content-Type': 'application/json; charset=UTF-8',
        'Accept-Language': 'zh-CN,zh;q=0.8,zh-TW;q=0.7,zh-HK;q=0.5,en-US;q=0.3,en;q=0.2',
        'X-Requested-With': 'XMLHttpRequest',
        'Connection': 'keep-alive',
        'Cookie':'Hm_lvt_db1e66967eaace6d18db99b987c0c0ee=1591430772,1591875677; Hm_lpvt_db1e66967eaace6d18db99b987c0c0ee=1591878733'}
  1. 第二步,发送请求
response = requests.get("https://www.baidu.com", headers=header)

但是使用正则表达式在返回的数据里没有匹配到SRR编号,发现并没有这些信息。也就是说,我请求到的数据和检查元素看到的数据并不一样——requests.get()得到的数据不全。
后来发现,这个网站并非是静态的html网页,中间数据框的那一部分是渲染后的代码,并不是原始url对应的代码。那么,怎么获得中间的数据呢?
既然是动态的,那就动态分析,打开网络监控:


用requests爬取数据库并转换成EBL下载链接_第3张图片
1.PNG

然后在网页上点击下一页,发现有一个post请求:


用requests爬取数据库并转换成EBL下载链接_第4张图片
2.PNG

点开这个请求,发现在我点击的时候发送了如下数据:
用requests爬取数据库并转换成EBL下载链接_第5张图片
3.PNG

那么就可以轻易的模拟出这个请求,网站一共291页,我们就可以发送291次请求:
# 用于储存ribo-seq数据的列表
ribo_dic = []
# 迭代发送请求,一共291页
for j in range(1,291):
    # 模拟请求
    pyload = {"pageSize":20,
              "pageNumber":j,
              "offset":5780,
              "sortName":"",
              "sortOrder":"asc",
              "experimental":{"ed_species":"",
                              "ed_cellLine_strain":"",
                              "ed_ecotype":"",
                              "ed_cell_tissue":"",
                              "ed_dataSetType":"",
                              "ed_instrument":"",
                              "ed_GEO":"",
                              "ed_SRA_No":"",
                              "ed_searchKey":"",
                              "ed_ffi_state":-3}}
    # 得到返回值
    r = requests.post(url,data=json.dumps(pyload),headers=header)
    # 返回值为json格式的,进行解析
    result = r.json()
    # 将解析结果转换为字典
    result_dic = dict(result)
    # 选择Ribo-seq数据
    for i in result_dic['d']['rows']:
        # 判断是否为ribo-seq
        if i['ed_dataSetType'] == 'ribosome footprints' or i['ed_dataSetType'] == 'ribosome footprint' or i['ed_dataSetType'] == 'RPF':
            ribo_dic.append(i)

# 保存所有信息
table = pd.DataFrame(ribo_dic)
# 丢弃不需要的信息
table = table.drop(['__type', 'ed_id', 'ed_sp_id'], axis=1)
table.to_csv('./result.csv')
  1. 转换为下载链接
    EBL下载链接有三种,可以都输出到下载脚本里,总有一个是对的。
#!usr/bin/python3
import argparse


def readfile(file):
    link_1 = []
    link_2 = []
    link_3 = []
    command = 'wget -nc '
    forward = 'ftp://ftp.sra.ebi.ac.uk/vol1/fastq/'
    back = '.fastq.gz &'
    list_1 = []

    for i in file:
        list_1.append(i.strip('\n'))
    for i in list_1:
        link_1.append(command + forward + str(i[0:6]) + '/' + str(i) + '/' + str(i) + back)
        link_2.append(command + forward + str(i[0:6]) + '/0' + str(i[-2:]) + '/' + str(i) + '/' + str(i) + back)
        link_3.append(command + forward + str(i[0:6]) + '/00' + str(i[-1:]) + '/' + str(i) + '/' + str(i) + back)
    final_list = link_2 + link_1 + link_3
    return final_list


def writefile(x):
    f1 = open('result.sh', 'w+')
    for i in x:
        f1.write(i)
        f1.write('\n')
    f1.close()


if __name__ == '__main__':
    parse = argparse.ArgumentParser('Generate url link of EBI from SRRid')
    parse.add_argument('-f', dest='file', required=True, help='SRRid file')
    arg = parse.parse_args()
    file = open(arg.file)
    f_list = readfile(file)
    writefile(f_list)

这里的-f是每行包含一个SRR号的文件。直接批量生成下载脚本。

你可能感兴趣的:(用requests爬取数据库并转换成EBL下载链接)