scrapy中使用Selector获取selenium响应页面

from selenium import webdriver
from scrapy import Selector
def set_driver(self):
        """
        设置webdriver
        """
        chrome = webdriver.ChromeOptions()
        chrome.headless = True  # 设置无头浏览器
        path = r'chromedriver/chromedriver.exe'
        driver = webdriver.Chrome(options=chrome, executable_path=path)
        return driver
driver = self.set_driver()
driver.get(url)
# 获取webdriver响应页面
selenium_response = Selector(text=driver.page_source, type='html')

不仅仅是可以用于selenium,requests也可以,如下:

r = requests.get(url=url, headers=headers, timeout=(30, 60))
# 获取响应
response = Selector(text=r.text, type='html')
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

友情链接更多精彩内容