day04-selenium语法

1. selenium语法

"""__author__= 雍新有"""
import time

from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.support.wait import WebDriverWait

# # 打开浏览器
# # 默认Chrome()中需要传入chromedriver.exe,只需配置chromedriver环境变量就行了
# browser = webdriver.Chrome()
# # get(url): 表示打开某个地址
# browser.get('https://www.baidu.com')
# # 关闭浏览器
# browser.close()


# 1.获取豆瓣电影信息
# browser = webdriver.Chrome()
# browser.get('https://movie.douban.com/explore#!type=movie&tag=%E7%83%AD%E9%97%A8&sort=recommend&page_limit=20&page_start=0')
# # 获取‘加载更多按钮’, 实现点击事件
# # 模拟向下拉进度条
# js1 = 'window.scrollTo(0, 1000)'
# # browser.execute_script(js1)
# # 获取加载按钮
# # 按钮的xpath代码  -- //*[@id="content"]/div/div[1]/div/div[4]/a
# more_button = browser.find_element_by_xpath('//*[@id="content"]/div/div[1]/div/div[4]/a')
# # 实现点击
# more_button.click()
# # 由于点击事件刚执行,页面还没有被ajax获取到的数据所渲染,所以要睡眠几秒
# time.sleep(3)
#
# # page_source获取源码,经过ajax渲染后的源码
# a1 = browser.page_source
# # a1为源码,解析可采用正则、lxml.etree、beactifulsoup4
# print(a1)
# browser.close()

# 2. 京东 - 查询元素
# browser = webdriver.Chrome()
# browser.get('https://www.jd.com')
# # 输入框
# input = browser.find_element_by_xpath('//*[@id="key"]')
# print(input)
# input = browser.find_element_by_id('key')
# print(input)
# # 选择器,copy里面有
# input = browser.find_element_by_css_selector('#key')
#
# # 通用写法
# # input = browser.find_element(By.XPATH, '//*[@id="key"]')
# # input = browser.find_element(By.ID, 'ID')
# # input = browser.find_element(By.CSS_SELECTOR, '#key')
#
# # 输入内容
# input.send_keys('Mac')

# 3. 前进后退
# 依次在一个窗口打开下面3个网站
# browser = webdriver.Chrome()
# browser.get('https://www.baidu.com')
# browser.get('https://www.jd.com')
# browser.get('http://blog.vincent-whf.top')
#
# # 回退
# browser.back()
# # 前进
# browser.forward()


# 4.获取京东,输入内容,点击搜索
# 等待(隐式等待、显式等待)
# browser = webdriver.Chrome()
# browser.get('https://www.jd.com')
# # 不睡眠,可能网页加载不出来,后面的xpath就找不到元素
# # time.sleep(3)
#
# # 隐式等待,如果获取元素找不到,则等待规定时长(默认为0),等待时长自定义
# browser.implicitly_wait(10)
#
# input = browser.find_element(By.XPATH, '//*[@id="key"]')
# # 将输入框的内容清空
# input.clear()
# # 输入信息
# input.send_keys('零食')
# # 获取搜索点击按钮
# button = browser.find_element(By.XPATH, '//*[@id="search"]/div/div[2]/button')
# # 搜索点击
# button.click()
# browser.implicitly_wait(10)
#
# # 获取页码
# total = browser.find_element(By.XPATH, '//*[@id="J_bottomPage"]/span[2]/input')

# 显式等待
browser = webdriver.Chrome()
browser.get('https://www.jd.com')

# 获取等待对象,等待10秒
wait = WebDriverWait(browser, 10)
# presence_of_all_elements_located: 当元素被加载出来了才获取信息
input = wait.until(
    EC.presence_of_element_located((By.XPATH, '//*[@id="key"]'))
)

# 将输入框的内容清空
input.clear()
# 输入信息
input.send_keys('水果')

# element_to_be_clickable: 等待元素可被点击
button = wait.until(
    EC.element_to_be_clickable((By.XPATH, '//*[@id="search"]/div/div[2]/button'))
)
# 搜索点击
button.click()

# 获取页码
total = wait.until(
    EC.presence_of_element_located((By.XPATH, '//*[@id="J_bottomPage"]/span[2]/em[1]/text()'))
)
print(total)

2. 京东selenium爬虫

"""__author__= 雍新有"""
import re
import time

import pymongo
from lxml import etree
from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.support.wait import WebDriverWait


chrome_options = webdriver.ChromeOptions()
# 配置不用加载图片
prefs = {"profile.managed_default_content_settings.images":2}
chrome_options.add_experimental_option("prefs", prefs)

# 获取浏览器
browser = webdriver.Chrome(chrome_options=chrome_options)
# 显式等待
wait = WebDriverWait(browser, 20)


def search():
    browser.get('https://www.jd.com')
    # 获取输入框,输入内容
    input = wait.until(
        EC.presence_of_element_located((By.XPATH, '//*[@id="key"]'))
    )
    input.clear()
    input.send_keys('水果')
    # 获取按钮,实现点击
    button = wait.until(
        EC.element_to_be_clickable((By.XPATH, '//*[@id="search"]/div/div[2]/button'))
    )
    button.click()

    for i in range(1, 17):
        js = f'window.scrollTo(0, {i} * document.body.scrollHeight / 16)'
        browser.execute_script(js)
        time.sleep(5)

    total = wait.until(
        EC.presence_of_element_located((By.XPATH, '//*[@id="J_bottomPage"]/span[2]/em[1]'))
    )
    # 获取第一页源码
    html = browser.page_source
    result = parse_html(html)
    save_mongo(result, 1)

    return total.text


def next_page(page):
    # 获取从第二页开始的每一页信息z
    # 翻页: 1. 可点击下一页  2. 可输入页面,实现点击
    # 下一页xpath =  // *[ @ id = "J_bottomPage"] / span[1] / a[9]

    # 执行滚动
    for i in range(1, 33):
        js = f'window.scrollTo(0, {i} * document.body.scrollHeight / 32)'
        browser.execute_script(js)
        time.sleep(5)

    # js = 'window.scrollTo(0, 2*document.body.scrollHeight / 4)'
    # browser.execute_script(js)
    # time.sleep(1)
    #
    # js = 'window.scrollTo(0, 3*document.body.scrollHeight / 4)'
    # browser.execute_script(js)
    # time.sleep(1)
    #
    # js = 'window.scrollTo(0, 4*document.body.scrollHeight / 4)'
    # browser.execute_script(js)
    # time.sleep(1)

    # print(f'----------点击{page}页--------')
    # next_input = wait.until(
    #     EC.element_to_be_clickable((By.XPATH, '//*[@id="J_bottomPage"]/span[1]/a[9]'))
    # )
    # next_input.click()

    page_input = wait.until(
        EC.presence_of_element_located((By.XPATH, '// *[ @ id = "J_bottomPage"] / span[2] / input'))
    )
    page_input.clear()
    print(f'---------第{page}页----')
    page_input.send_keys(str(page))
    button = wait.until(
        EC.element_to_be_clickable((By.XPATH, '//*[@id="J_bottomPage"]/span[2]/a'))
    )
    button.click()

    # 点击过后,页面将重新加载,主动等待3秒后再获取源码
    time.sleep(10)
    html = browser.page_source
    return html
    # 判断当前页是否调转过来了


def parse_html(html):
    tree = etree.HTML(html)
    goods_list = tree.xpath('//*[@id="J_goodsList"]/ul/li')
    result = []
    for item in goods_list:
        # item就是每一个li
        data = {
            'img': item.xpath('./div/div[1]/a/img/@src'),
            'goods_name': item.xpath('./div/div[3]/a/@title'),
            'goods_price': item.xpath('./div/div[2]/strong/i/text()')
        }
        result.append(data)
    return result


def save_mongo(data, page):
    db = pymongo.MongoClient(host='127.0.0.1', port=27017)
    print(len(data))
    try:
        print(f'第{page}页数据插入成功')
        for item in data:
            print(item)
            db['spider']['jd1'].insert_one(item)
    except:
        print(f'第{page}页数据插入失败')


if __name__ == '__main__':
    # search(): 打开浏览器输入京东,搜索某商品,返回总页码
    total = search()
    # 正则search匹配字符串内的内容,fallmatch要匹配' -- 字符串标识符,
    all_page = int(re.search('(\d+)', total).group())
    for page in range(2, 4):
        html = next_page(page)
        result = parse_html(html)
        save_mongo(result, page)

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,670评论 5 460
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 81,928评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 141,926评论 0 320
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,238评论 1 263
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 61,112评论 4 356
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,138评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,545评论 3 381
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,232评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,496评论 1 290
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,596评论 2 310
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,369评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,226评论 3 313
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,600评论 3 299
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,906评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,185评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,516评论 2 341
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,721评论 2 335

推荐阅读更多精彩内容