第五章 爬虫进阶(二十七) 2020-02-13

二十七、 selenium实战– 填充站点所对应的代号


续上例,示例代码


from selenium import webdriver

from selenium.webdriver.support.ui import WebDriverWait

from selenium.webdriver.support import expected_conditions as EC

import csv

 

# 为什么需要把driver放在外面?

# 因为如果放在里面,那么driver将会随着对象的销毁而被销毁

# 而我们的TrainSpider的对象是放在main函数中执行的。

# 只要main函数运行完成后,里面所有的变量都会被销毁,

# 也就是说spider也会被销毁,那么spider里面的driver也会被销毁。

 

driver = webdriver.Chrome(executable_path="E:\python\chromedriver\chromedriver.exe")

 

 

classTrainSpider(object):

    login_url ="https://kyfw.12306.cn/otn/resources/login.html"

    personal_url ="https://kyfw.12306.cn/otn/view/index.html"

    left_ticket_url ="https://kyfw.12306.cn/otn/leftTicket/init?linktypeid=dc"

 

    def __init__(self, from_station,to_station, train_date):

        self.from_station = from_station

        self.to_station = to_station

        self.train_date = train_date

 

       # 初始化站点所对应的代号

        self.station_codes = {}

        self.init_station_code()

 

    def init_station_code(self):

        with open("stations.csv",'r', encoding='utf-8') as fp:

            reader = csv.DictReader(fp)

            for line in reader:

                name = line["name"]

                code = line['code']

                #print("name:%s,code:%s" % (name, code))

                self.station_codes[name] = code

 

    def login(self):

        driver.get(self.login_url)

       # 等待url是否变成个人中心的url,来判断是否登录成功

        WebDriverWait(driver, 1000).until(

            EC.url_contains(self.personal_url)

        )

        print("登录成功!")

 

    def search_left_ticket(self):

        driver.get(self.left_ticket_url)

        from_station_input =driver.find_element_by_id("fromStation")

        from_station_code =self.station_codes[self.from_station]

       driver.execute_script("arguments[0].value='%s'" %from_station_code, from_station_input)

 

    def run(self):

       # 1、登录

        self.login()

       # 2、车次余票查询

        self.search_left_ticket()

 

 

def main():

    spider = TrainSpider("北京", "长沙","2020-02-12")

    spider.run()

 

 

if__name__ == '__main__':

    main()



上一篇文章 第五章 爬虫进阶(二十六) 2020-02-12 地址:

https://www.jianshu.com/p/2f6cb9cd4076

下一篇文章 第五章 爬虫进阶(二十八) 2020-02-14 地址:

https://www.jianshu.com/p/2a1f373bffc0



以上资料内容来源网络,仅供学习交流,侵删请私信我,谢谢。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。