scrapy模拟登录方法以及你可能遇到的坑

# -*- coding: utf-8 -*-
import json
import scrapy
from scrapy import Request
class StandardSpider(scrapy.Spider):
    name = 'standard'
"""
重写start_requests方法,第一个请求会从这里发出,
当然也可以写类属性:start_urls = ['http://xxx.com'],默认的回调函数是parse(),
在默认的回调函数中写  start_requests方法内的代码也是一样的,
目的是爬虫一执行就会执行定义好的请求地址,并且保存cookies;

"""
    #第一次发起get请求来保存服务器设置的cookies,
#已经从get的response中提取有价值信息,为登陆提供服务
    def start_requests(self):
        #meta是核心方法,通过它来保存服务器设置的
        return [Request(url='http://xxxxxx/login',meta={'cookiejar':1},callback=self.post_login)]
    def post_login(self,response):
          """
        这里通常的写法是:return scrapy.FormRequest.from_response(xxxxx),
这里的from_response方法会上一个response中提取form表单中的action属性值,
所以,确保你的response中一定是有form表单的,否则,一定会报错,
报错的内容是”No <form> element found in “,所以当您用from_response这个方法的时候,
一定要确保,您的response中是有from表单的(有些变态的登录页面,form表单不是静态的),
我这里并没有用from_response这个方法来自动提取登录的post地址,
而是用了FormRequest实例,手动指定post地址,
meta参数同样是要带上的,将response.meta['cookiejar']赋值给cookiejar
回调函数随便怎么写了,已经登录成功了,你可以再次return Request,
也可return item
        """
        return scrapy.FormRequest(
            # response,
            url = 'http://ntlias-stu.boxuegu.com/user/login',
            formdata={
                'loginName':'A171200615',
                'password':'nishijiba'
            },
            meta = {'cookiejar':response.meta['cookiejar']},
            dont_filter = True,
            callback = self.after_login,
        )

    def after_login(self,response):
        yield Request(url='http://www.pornhub.com',meta={'cookiejar':response.meta['cookiejar']})


©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容