前言
- 蛋肥这次想尝试一下爬取APP的数据,作为一个万年潜水的老Jr,这次选择虎扑APP论美区照片作为爬取目标,纯属出于学术研究,没有其他目的(嘿嘿)。
准备
爬取时间:2021/02/02
系统环境:Windows 10
所用工具:Jupyter Notebook\Python 3.0\Fiddler\雷神模拟器
涉及的库:requests\json
获取基础数据
小提示
①模拟器不要用Android 7.0以上的内核,可能会导致抓包失败。
②因为url签名会定期刷新,所以抓包后需尽快执行代码,不然url会失效。
参考资料
使用fiddler+模拟器进行APP抓包
获取url
蛋肥想法:原本计划是利用Fiddler+雷神模拟器去完成数据抓包,找到数据的url规律,但实际操作发现,url里带sign,百度了下sign的处理方法,感觉暂时超出了蛋肥的知识范围,所以这次利用雷神模拟器自带的“操作录制”功能,将论美区的页面自动下滑至底部,将Fiddler抓取的所有相关url地址导出,然后再去python里处理url。
#处理Fiddler里导出的url
file=open(r"C:\Users\Archer\Desktop\url.txt","r",encoding='utf-8')
url_list=file.read().split("\n")
Fiddler抓取的部分url
获取cover地址
蛋肥想法:通过url请求json,观察json结构发现“cover”对应封面照片的地址,可用之获取照片。
import requests
import json
#获取cover地址
def getpic(url):
piclink=[]
for each in url:
link=each
headers={"User-Agent":"Mozilla/5.0 (Windows NT 10.0; WOW64; rv:43.0) Gecko/20100101 Firefox/43.0"}
r=requests.get(link,headers=headers,timeout=10)
json_string=r.text
json_data=json.loads(json_string)
coverlist=json_data["data"]["list"]
for each in coverlist:
#因某些list里没有cover,做一个判断
if "cover" in each:
p=each["cover"]
piclink.append(p)
return(piclink)
#执行函数
a=getpic(url_list)
#为了获取原图去掉url里的resize
b=[x[:x.find("?")] for x in a]
#去掉列表里的空值
c=[x for x in b if x != ""]
获取照片
#获取照片
def downloadpic(link):
for i in range(len(link)):
print(link[i])
piclink=link[i]
pic=requests.get(piclink)
with open(r'C:\Users\Archer\Desktop\论美区照片\img'+str(i)+'.png', 'wb') as f:
f.write(pic.content)
#执行函数
downloadpic(c)
获取的部分照片
总结
- 利用Fiddler可实现APP数据的爬取。
- 虎扑论美区网图是真的多。