爬虫框架scrapy篇七——中间件的相关操作

1、下载中间件添加cookie

修改middlewares.py文件下xxxDownloaderMiddleware方法process_request

class CxrDownloaderMiddleware:
    @classmethod
    def from_crawler(cls, crawler):
        # This method is used by Scrapy to create your spiders.
        s = cls()
        crawler.signals.connect(s.spider_opened, signal=signals.spider_opened)
        return s

    def process_request(self, request, spider):
        # # 在这里添加cookie到请求头
        cookies = {
            '_gid': 'GA1.2.1669620947.1730686665',
            '_gat_gtag_UA_87592301_7': '1',
            '_ga_YKC8ZQQ4FF': 'GS1.1.1730699582.2.1.1730700166.0.0.0',
            '_ga': 'GA1.1.1502111631.1730686665',
            # 添加更多cookie
        }
        request.cookies.update(cookies)
        # print(f'下载中间件添加cookie:{cookies}')
        return None

有一点需要注意,如果是在pipelines管道内自己写的请求内容,在中间件加cookie是不管用的,需要自己手动加上cookie

待续。。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容