场景一:
-
找好目标网站
-
兴高采烈的打开F12,观察一番
-
查看network面板,抓请求,简简单单有json返回,So Easy。
-
代码一顿噼里啪啦,搞定!
场景二:
-
找好目标网站
-
兴高采烈的打开F12,观察一番
-
网站没有直接返回数据,而是html啥的,简单,解析html呗。
-
xpath,css selector ,re给我盘他。
-
代码一顿噼里啪啦,搞定!
场景三:
-
找好目标网站
-
兴高采烈的打开F12,观察一番
-
请求只返回了js,然后js动态加载到网页中。
-
上家伙,selenium,puppeteer,phanotomjs,给我盘他。
-
代码一顿噼里啪啦,搞定!
到这里就已经能应对90%的情况了。
-
跑着跑着,因为数据格式原因或者其他,程序运行终止了…
-
网站的html不按套路出牌,正则写了半天…
-
速度太快,ip被封了,突然爬不到了…
-
数据需要登录才能获取,模拟登录又是一番功夫。
-
即使用模拟浏览器,依然获取不到数据。
其实写爬虫就像回合制游戏,你一直面对这个boss,用各种办法升级你的爬虫,最后搞定他。
A:网站,B:你
-
B:请求网站失败
-
B:数据解析有问题
-
B:分析哪里有问题,爬的过程有问题,还是洗的过程有问题(不断反复调试,直到ok为止)
-
B:速度太慢,上多线程,协程。
-
A:速度太快,被干掉。
-
B:上代理,代理呢免费的又层次不齐,是不是要考虑整个代理池,付费的又没钱。
-
最后就是程序的健壮性问题,还有根据一些功能定制化了。
那有没有什么好的插件可以帮帮我呢,毕竟我只是想要简单爬点数据呀!!!
2.干货环节
简单思考下:用浏览器爬数据,那当然要用浏览器插件才靠谱呀。
那接下来推荐几款我用的比较舒服的插件。
Web Scaper
这真的是个好东西,免费还好用
免费的,但只有一个线程,但也够用了。如果需要更多的服务,比如代理呀,并发也,可以去注册个账号,购买套餐。
- 打开F12,可以看到多了一个web scraper,这里以acg动漫网为例。
-
create new sitemap ,创建一个网站地图
-
配置规则
- 预览数据
添加图片注释,不超过 140 字(可选)
- 下载导出数据
如果有人愿意看的话,下一期我可以出一份详细教程。
这真的是爬取图片神器,不是我吹。
网站直接右键,提取图片!!!就是怎么方便。
提取的图片可以自行筛选,选择下载。
然后点击下载就能全下载下来啦!
3.最后的最后
有个这两个工具,相信一般网站已经难不倒你了,即使不会写代码也不要紧!
本文使用 文章同步助手 同步