爬虫框架pyspider的使用

概要:了解了爬虫的基础知识后,接下来我们来使用框架来写爬虫,用框架会使我们写爬虫更加简单,接下来我们来了解一下,pyspider框架的使用,了解了该框架,妈妈再也不用担心我们的学习了。

前期准备:

1、安装pyspider:pip3 install pyspider

2、安装Phantomjs:在官网下载解压后,并将pathtomjs.exe拖进安装python路径下的Scripts下即可。

下载地址:https://phantomjs.org/dowmload.html

官方API地址:http://www.pyspider.cn/book/pyspider/self.crawl-16.html

2、用法(这里只简要介绍,更多请看官方文档):

1、首先启动pyspider

在黑窗口中输入pyspider all 即可看到如下。

提醒我们在http://localhost:5000端口打开即可。(注意不要关闭!

打开后点击右边的Create创建项目,Project Name是项目名称,

Start URL(s)是你要爬取的地址点击Create就可以创建一个项目。

2、了解pyspider的格式和过程

创建之后我们会看到如下:

Handler方法是pysqider的主类,继承BaseHandler,所有的功能,只需要一个Handler就可以解决。

crawl_config = {}表示全局的配置,比如可以之前学的那样,定义一个headers

@every(minutes=24 * 60)every属性表示爬取的时间间隔,minutes=24*60即是一天的意思,也就是说一天爬取一次。

on_start方法:是爬取的入口,通过调用crawl方法来发送请求,

callback=self.index_page:callback表示回调函数,也就是说将请求的结果交给index_page来处理。

@config(age=10 * 24 * 60 * 60)是设置任务的有效时间为10天,也就是说在10天内不会重复执行。

index_page函数:就是进行处理的函数,参数response,表示请求页面的返回内容。

接下来的内容相必大家也看得懂,通过pyquery解析器(pyspider可以直接使用该解析器)获取所有的链接。并依次去请求。然后调用detail_page来处理,得到我们想要的东西。

@config(priority=2)priority表示爬取的优先级,没有设置默认为0,数字越大,可优先调用。

crawl的其他参数:

exetime:表示该任务一个小时候执行

self.crawl('http://maoyan.com/board/4', callback=self.detail_page,exetime=time.time()+60*60)

retries:可以设置重复次数,默认为3

auto_recrawl:设置为True时,当任务过期,即age的时间到了之后,再次执行。

method:即HTTP的请求方式默认为get

params:以字典的形式添加get的请求参数

self.crawl('http://maoyan.com/board/4', callback=self.detail_page,params={'a':'123','b':'456'})

data:post的表单数据,同样是以字典的形式

files:上传文件

self.crawl('http://maoyan.com/board/4', callback=self.detail_page,method='post',files={filename:'xxx'})

user_agent:即User-Agent

headers:即请求头信息

cookies:字典形式

connect_timeout:初始化的最长等待时间,默认20秒

timeout:抓取页面的最长等待时间

proxy:爬取时的代理,字典形式

fetch_type:设置成js即可看到javascript渲染的页面,需要安装Phantomjs

js_script:同样,也可以执行自己写的js脚本。如:

self.crawl('http://maoyan.com/board/4', callback=self.detail_page,js_script='''

function(){

alert('123')

}

''')

js_run_at:和上面运行js脚本一起使用,可以设置运行脚本的位置在开头还是结尾

load_images:在加载javascript时,是否加载图片,默认为否

save:在不同方法之间传递参数:

def on_start(self):

self.crawl('http://maoyan.com/board/4', callback=self.index_page,save={'a':'1'})

def index_page(self,response):

return response.save['a']

3、保存之后的项目是这样的

status表示状态:

TODO:表示项目刚刚被创建的状态

STOP:表示停止

CHECKING:正在运行的项目被修改的状态

DEBUG/RUNNING:都是运行,DEBUG可以说是测试版本。

PAUSE:出现多次错误。

如何删除项目?

将group修改成delete,staus修改成STOP,24小时后系统自动删除

actions:

run表示运行

active tasks 查看请求

results 查看结果

tate/burst:

1/3表示1秒发送一个请求,3个进程

progress:表示爬取的进度。

4、完。

(你也可以根据自己的需要,添加自己的方法。后续会有用pyspider爬取的例子。)

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 213,047评论 6 492
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,807评论 3 386
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 158,501评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,839评论 1 285
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,951评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,117评论 1 291
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,188评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,929评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,372评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,679评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,837评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,536评论 4 335
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,168评论 3 317
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,886评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,129评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,665评论 2 362
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,739评论 2 351

推荐阅读更多精彩内容

  • pyspider用pyquery来获取元素在抓取时如果报下边错误 HTTP 599: SSL certificat...
    原来不语阅读 681评论 0 1
  • Ps:惯例ps环节,经过前面几章的学习,写一些简单的爬虫已经是手到擒来了吧。这章我们看看如何使用pyspider框...
    Darkeril阅读 14,537评论 8 26
  • 不失去一次怎知珍惜,但是或得或失的反复多了,又怎么会珍惜 作为旁观者,好吧,心有余而力不足,自己选择的路,还是要走的
    Skylt阅读 111评论 0 0
  • 每个人都拥有上天赐予的独特的才华和潜能。然而要获得并保持成功的生活最困难的一件事情是:健康而积极的尊重我们所拥有的...
    安利一个磊阅读 1,282评论 0 0
  • 老话说“眼见为实,耳听为虚”,可是从校园生活里转变到社会生活中之后,我对这句话有了不一样的理解,也许是“眼见...
    诺伊莎阅读 424评论 0 0