2018-03-04 使用 selenium 模拟浏览器爬取动态数据

前情提要:

女友毕业论文需要进行数据分析, 要从一个舆情网站爬取大量数据, 导入 excel 里进行分析. 遂做了一个爬虫帮她爬取, 不料该网站部分数据是 js 动态获取, 因此学习了 selenium 的 webdriver 爬取动态数据

技术拆分:

  1. 爬取目标网站并缓存
  2. 提取网页信息, 本次使用 pyquery
  3. 建立数据类, 保存提取的信息
  4. 导入 excel 里, 本次使用 openpyxl

问题一: 使用 requests 爬取后部分数据未加载�

本来好好的用 requests 库进行爬取, 因为要登录, 遂登录后拿到了 cookie. 再次爬取后, 发现部分数据还未加载, requests 库中不存在等待加载的方法, 查到主流方案是使用 selenium 的 webdriver. 由于 phantomjs 已不再被支持, 遂使用 chromedriver

问题二: 是否能像使用 requests 库一样直接通过 add cookie 的方式访问需要登录的页面

结论是: 可以, 但是使用方式有差别, 此处有两个要点

  1. webdriver 里的 cookie 格式和 requests 里的是有所不同的
  2. 要先访问一下网站首页, 然后 add cookies, 再访问需要登录的目标网页即可
        driver.get('http://yuqing.gsdata.cn')
        cookies = driver.get_cookies()
        print('cookies', cookies)
        for key, value in cookie_dict.items():
            c = {
                'domain': '.gsdata.cn',
                'httponly': False,
                'path': '/',
                'secure': False,
                'name': key,
                'value': value,
            }
            driver.add_cookie(c)
        driver.get(url)
        time.sleep(5)
        # driver.save_screenshot('/Users/natural/Desktop/{}.png'.format(url[-2:]))
        # 写入缓存目录
        with open(path, 'wb') as f:
            f.write(driver.page_source.encode())
        content = driver.page_source

源码

import os
import requests
import time
from pyquery import PyQuery as pq
from openpyxl import Workbook
from selenium import webdriver


driver = webdriver.Chrome(executable_path='/Users/natural/Desktop/chromedriver')
log = print


class Model():
    """
    基类, 用来显示类的信息
    """
    def __repr__(self):
        name = self.__class__.__name__
        properties = ('{}=({})'.format(k, v) for k, v in self.__dict__.items())
        s = '\n<{} \n  {}>'.format(name, '\n  '.join(properties))
        return s

class News(Model):
    def __init__(self):
        self.title = ''
        self.description = ''
        self.start_date = ''
        self.related = ''


def cached_url(url):
    """
    缓存, 避免重复下载网页浪费时间
    """
    folder = 'cached'
    filename = url.split('=', 1)[-1] + '.html'
    path = os.path.join(folder, filename)
    if os.path.exists(path):
        with open(path, 'rb') as f:
            s = f.read()
            return s
    else:
        # 建立 cached 文件夹
        if not os.path.exists(folder):
            os.makedirs(folder)
        # 发送网络请求, 把结果写入到文件夹中
        cookie_dict = {
        }
        driver.get('http://yuqing.gsdata.cn')
        cookies = driver.get_cookies()
        print('cookies', cookies)
        for key, value in cookie_dict.items():
            c = {
                'domain': '.gsdata.cn',
                'httponly': False,
                'path': '/',
                'secure': False,
                'name': key,
                'value': value,
            }
            driver.add_cookie(c)
        driver.get(url)
        time.sleep(5)
        # driver.save_screenshot('/Users/natural/Desktop/{}.png'.format(url[-2:]))

        with open(path, 'wb') as f:
            f.write(driver.page_source.encode())
        content = driver.page_source
        log('content', content)

    return content


def news_from_div(div):
    """
    从一个 div 里面获取到一个电影信息
    """
    root = pq(div)
    # tbody = root('tbody')
    tr_list = root('tr')
    news = []
    for tr in tr_list[1:]:
        sub_root = pq(tr)
        item = sub_root('td')
        n = News()
        n.title = item.eq(0).text()
        n.description = item.eq(1).text()
        n.start_date = item.eq(2).text()
        n.related = item.eq(3).text()
        news.append(n)
        log('item', n)
    return news


def news_from_url(url):
    """
    从 url 中下载网页并解析出页面内所有的电影
    """
    page = cached_url(url)
    e = pq(page)
    items = e('.subscr-tb')
    # log('debug items', items)
    # 调用 movie_from_div
    news = news_from_div(items)
    return news


def write_to_excel(news):
    # 在内存中创建一个workbook对象,而且会至少创建一个 worksheet
    wb = Workbook()

    ws = wb.get_active_sheet()
    ws.title = 'New Title'  # 设置worksheet的标题

    # 设置单元格的值
    height = len(news)
    for i in range(height):
        new = news[i]
        row_index = i + 1
        # log('debug title', new.title)
        ws.cell(row=row_index, column=1).value = new.title
        ws.cell(row=row_index, column=2).value = new.description
        ws.cell(row=row_index, column=3).value = new.start_date
        ws.cell(row=row_index, column=4).value = new.related
    # 最后一定要保存!
    wb.save(filename='new_file.xlsx')


def main():
    news = []
    for i in range(0, 39):
        url = 'http://yuqing.gsdata.cn/yuqingSubscribe/index?page={}'.format(i)
        page_news = news_from_url(url)
        news += page_news

    write_to_excel(news)

if __name__ == '__main__':
    main()

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,287评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,346评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,277评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,132评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,147评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,106评论 1 295
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,019评论 3 417
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,862评论 0 274
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,301评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,521评论 2 332
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,682评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,405评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,996评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,651评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,803评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,674评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,563评论 2 352

推荐阅读更多精彩内容