用requests爬取数据库并转换成EBL下载链接

之前老师给了我一个储存RNA-seq和Ribo-seq数据的数据库translatome db让我在上面下数据,但是这个数据库本身并不存储测序数据,每一组数据需要点击后面的链接,得到相应的NCBI链接,再去根据链接自行下载:

数据库截图

这样一个一个操作太过于麻烦,上千组数据可以点到毕业,所以必须用爬虫爬取。记得当年出于学习的目的用实验室电脑在P站上爬过1T的人体写真,虽然这些图片至今我一眼都没看过,但我有一个朋友看了之后说还不错。
言归正传,首先想到的是python自带的requests库:
官方文档截图

官方文档截图

看得出来作者也是个逗比。
我的目的很明确,爬取网站上左右Ribo-seq数据的SRR编号,方便转化为下载链接。
首先,进入网站包含SRR号码的页面,右键网页,检查元素,看看我们要的SSR号藏在哪里:


检查元素.PNG

可以发现data-index代表不同的数据,而所有的信息就包含在不同的index里。看起来很简单。

  1. 第一步,加载包并设定网站url和请求头:
import requests
import json
import pandas as pd

url = 'http://www.translatomedb.net/SWSYWS.asmx/searchExperimentalData'
header={'User-Agent':'Mozilla/5.0 (Macintosh; Intel Mac OS X 10.15; rv:77.0) Gecko/20100101 Firefox/77.0',
        'Host':'www.translatomedb.net',
        'Content-Type': 'application/json; charset=UTF-8',
        'Accept': 'application/json, text/javascript, */*; q=0.01',
        'Accept-Encoding': 'gzip, deflate',
        'Referer': 'http://www.translatomedb.net/searchDownload.html',
        'Origin': 'http://www.translatomedb.net',
        'Content-Type': 'application/json; charset=UTF-8',
        'Accept-Language': 'zh-CN,zh;q=0.8,zh-TW;q=0.7,zh-HK;q=0.5,en-US;q=0.3,en;q=0.2',
        'X-Requested-With': 'XMLHttpRequest',
        'Connection': 'keep-alive',
        'Cookie':'Hm_lvt_db1e66967eaace6d18db99b987c0c0ee=1591430772,1591875677; Hm_lpvt_db1e66967eaace6d18db99b987c0c0ee=1591878733'}
  1. 第二步,发送请求
response = requests.get("https://www.baidu.com", headers=header)

但是使用正则表达式在返回的数据里没有匹配到SRR编号,发现并没有这些信息。也就是说,我请求到的数据和检查元素看到的数据并不一样——requests.get()得到的数据不全。
后来发现,这个网站并非是静态的html网页,中间数据框的那一部分是渲染后的代码,并不是原始url对应的代码。那么,怎么获得中间的数据呢?
既然是动态的,那就动态分析,打开网络监控:


1.PNG

然后在网页上点击下一页,发现有一个post请求:


2.PNG

点开这个请求,发现在我点击的时候发送了如下数据:
3.PNG

那么就可以轻易的模拟出这个请求,网站一共291页,我们就可以发送291次请求:
# 用于储存ribo-seq数据的列表
ribo_dic = []
# 迭代发送请求,一共291页
for j in range(1,291):
    # 模拟请求
    pyload = {"pageSize":20,
              "pageNumber":j,
              "offset":5780,
              "sortName":"",
              "sortOrder":"asc",
              "experimental":{"ed_species":"",
                              "ed_cellLine_strain":"",
                              "ed_ecotype":"",
                              "ed_cell_tissue":"",
                              "ed_dataSetType":"",
                              "ed_instrument":"",
                              "ed_GEO":"",
                              "ed_SRA_No":"",
                              "ed_searchKey":"",
                              "ed_ffi_state":-3}}
    # 得到返回值
    r = requests.post(url,data=json.dumps(pyload),headers=header)
    # 返回值为json格式的,进行解析
    result = r.json()
    # 将解析结果转换为字典
    result_dic = dict(result)
    # 选择Ribo-seq数据
    for i in result_dic['d']['rows']:
        # 判断是否为ribo-seq
        if i['ed_dataSetType'] == 'ribosome footprints' or i['ed_dataSetType'] == 'ribosome footprint' or i['ed_dataSetType'] == 'RPF':
            ribo_dic.append(i)

# 保存所有信息
table = pd.DataFrame(ribo_dic)
# 丢弃不需要的信息
table = table.drop(['__type', 'ed_id', 'ed_sp_id'], axis=1)
table.to_csv('./result.csv')
  1. 转换为下载链接
    EBL下载链接有三种,可以都输出到下载脚本里,总有一个是对的。
#!usr/bin/python3
import argparse


def readfile(file):
    link_1 = []
    link_2 = []
    link_3 = []
    command = 'wget -nc '
    forward = 'ftp://ftp.sra.ebi.ac.uk/vol1/fastq/'
    back = '.fastq.gz &'
    list_1 = []

    for i in file:
        list_1.append(i.strip('\n'))
    for i in list_1:
        link_1.append(command + forward + str(i[0:6]) + '/' + str(i) + '/' + str(i) + back)
        link_2.append(command + forward + str(i[0:6]) + '/0' + str(i[-2:]) + '/' + str(i) + '/' + str(i) + back)
        link_3.append(command + forward + str(i[0:6]) + '/00' + str(i[-1:]) + '/' + str(i) + '/' + str(i) + back)
    final_list = link_2 + link_1 + link_3
    return final_list


def writefile(x):
    f1 = open('result.sh', 'w+')
    for i in x:
        f1.write(i)
        f1.write('\n')
    f1.close()


if __name__ == '__main__':
    parse = argparse.ArgumentParser('Generate url link of EBI from SRRid')
    parse.add_argument('-f', dest='file', required=True, help='SRRid file')
    arg = parse.parse_args()
    file = open(arg.file)
    f_list = readfile(file)
    writefile(f_list)

这里的-f是每行包含一个SRR号的文件。直接批量生成下载脚本。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,080评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,422评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 157,630评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,554评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,662评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,856评论 1 290
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,014评论 3 408
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,752评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,212评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,541评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,687评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,347评论 4 331
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,973评论 3 315
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,777评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,006评论 1 266
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,406评论 2 360
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,576评论 2 349