webdriver通过browser.page_source得到网页源代码,再进行xpath提取

webdriver通过browser.page_source得到网页源代码,再进行xpath提取

def danwei2():
        browser = webdriver.Ie(r'D:\driver\IEDriverServer.exe')
        # browser = webdriver.Firefox(r'D:\driver\geckodriver')
        # browser = webdriver.Chrome(r'D:\driver\chromedriver.exe')
        # browser = webdriver.PhantomJS(r'D:\phantomjs-2.1.1-windows\bin\phantomjs')
        url = 'http://search.gjsy.gov.cn:9090/queryAll/listFrame2?page=2&districtCode=130300&checkYear=2017&sydwName=&selectPage=0'
    
        browser.get(url)
        time.sleep(0.5)
    
        print(browser.page_source)    #打印源码
        res = browser.page_source  #page_source页面源代码
        rs1 = etree.HTML(res)  # 是将HTML转化为二进制/html 格式
        num = rs1.xpath('//*[@id="searchForm"]/table/tbody/tr/td/table/tbody/tr[2]/td/table/tbody/tr[9]/td/table/tbody/tr[2]/td/table/tbody/tr[2]/td[2]/a/text()')
        unit = rs1.xpath('//*[@id="searchForm"]/table/tbody/tr/td/table/tbody/tr[2]/td/table/tbody/tr[9]/td/table/tbody/tr[2]/td/table/tbody/tr[2]/td[3]/a/text()')
        print(num)
        print(unit)
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 这篇文章在介绍官网的同时使用了比较多的脚本示例,示例里遇到的问题有部分在本篇文章进行了解释,还有一篇文章专门记录了...
    顾顾314阅读 12,995评论 3 32
  • 前言 离上一篇更新的博文应该过了挺久的了(python爬虫(上)–请求——关于旅游网站的酒店评论爬取(传参方法))...
    Mrhyden阅读 532评论 0 0
  • selenium主要是用来做自动化测试,支持多种浏览器,爬虫中主要用来解决JavaScript渲染问题。 模拟浏览...
    拾柒丶_8257阅读 2,199评论 0 2
  • selenium用法详解 selenium主要是用来做自动化测试,支持多种浏览器,爬虫中主要用来解决JavaScr...
    陳_CHEN_陈阅读 3,963评论 1 5
  • 别问当初为何选择了你 答得出来 那是思前想后的权衡 答不上来 才是奋不顾身的爱情
    路易猫阅读 304评论 0 2