scrapy框架中post请求传递参数的几种姿势

scrapy框架访问链接时,post请求的几种姿势

在使用scrapy进行爬虫编写的时候,经常会遇到一些post请求,根据不同的header往往会有不同的参数提交方式,采坑记录。


Query String Parameters

这种是相对简单的,参数可以直接拼接在url中,在url中?后面的部分即为请求的参数,并以&分隔开来。

headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.100 Safari/537.36",
    'Accept': 'application/json, text/javascript, */*; q=0.01',
}    
def start_requests(self):
        url = "https://s.taobao.com/search?q=鸿星尔克男鞋"
        yield Request(url=url, method='get', headers=self.headers,
                      callback=self.parse_link)

From data

scrapy.FormRequest + formdata传递,formdata中的数字要变成字符串形式。

headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.100 Safari/537.36",
    'Accept': 'application/json, text/javascript, */*; q=0.01',
    'Content-Type': 'application/x-www-form-urlencoded',
}
def parse_CSRF(self, response):

    url = "http://asdasdasdasdasdasdsd.com"
    form_data = {
        "offset":'0',
        "limit": '20',
        "site_id": '11111'
    }
    yield FormRequest(url=url, method='post', headers=headers, formdata=form_data,
                      callback=self.parse_link)

payload

Request + body传递,body内容要使用json.dumps(payload)处理一下。

headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.100 Safari/537.36",
    'Accept': 'application/json, text/javascript, */*; q=0.01',
    'Content-Type':'application/json'
}
def start_requests(self):
    url = "http://www.xxxxxx.gov.cn/xxxxx/mailList"
    start_hash = self.configure.interface.get_start_hash(channel['job'])
    payload = {
        "pageNum": '1',
        "pageSize": '20',
        "params": {
            "phone": "",
            "searchCode": "",
        }
    }
    yield Request(url=url, method='post', headers=headers,
                  body=json.dumps(payload),
                  callback=self.parse_link)

json

Request+body传递,body要使用json.dumps(post_data)进行处理。

headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.100 Safari/537.36",
    'Accept': 'application/json, text/javascript, */*; q=0.01',
    'Content-Type': 'application/json'
}
def start_requests(self):
    url = "http://xxx.xxx.com/xxx"
    post_data = {
        "pageNum":1,
        "pageSize":20
    }
    start_hash = self.configure.interface.get_start_hash(channel['job'])
    yield Request(url=url, method='post', headers=headers,body=json.dumps(post_data),
                  callback=self.parse_link)
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容