爬虫和反爬虫的斗争历史
爬虫建议
· 尽量减少请求次数
· 保存获取到得HTML,供查错和重复使用
· 关注网站的所有类型的页面
· H5页面
· APP
· 多伪装
· 代理IP
· 随机请求头
· 利用多线程分布式
· 在不被发现的情况下我们尽可能地提高速度
Ajax基本介绍
动态了解HTML技术
· JS (Java Script)
是网络上最常用的脚本语言,它可以收集用户的跟踪数据,不需要重载页面提交表单,在页面嵌入多媒体文件,甚至运行网页
· jQuery
是一个快速、简洁的JavaScript框架,封装了JavaScript常用的功能代码
· Ajax
ajax可以使用网页实现异步更新,可以在不重新加载整个网页的情况下,对网页的某部分进行更新
获取Ajax数据的方式
1. 直接分析ajax调用的接口。然后通过代码请求这个接口
2. 使用Selenium + Chromedriver 模拟浏览器行为获取数据
Selenium + Chromedriver
Selenium是一个web的自动化测试工具,最初是为了网站自动化测试而开发的,selenium可以直接运行在浏览器上,它支持所有主流的浏览器,可以接收指令,让浏览器自动加载页面,获取需要的数据,甚至页面截屏
chromedriver 是一个驱动Chrome浏览器的驱动程序,使用它才可以驱动浏览器。当然针对不同的浏览器有不同的driver,以下列出了不同浏览器及其对应的driver:
Chrome:https://sites.google.com/a/chromium.org/chromedriver/downloads
Firefox:https://github.com/mozilla/geckodriver/releases
Edge:https://developer.microsoft.com/en-us/microsoft-edge/tools/webdriver/
Safari:https://webkit.org/blog/6900/webdriver-support-in-safari-10/
下载chromedriver
百度搜索:淘宝镜像(https://npm.taobao.org/)
安装总结:https://www.jianshu.com/p/a383e8970135
安装 Selenium:pip install selenium
Phantomjs快速入门
无头浏览器: 一个完整的浏览器内核,包括js解析引擎,渲染引擎,请求处理等。但是不包括显示和用户交互页面的浏览器
Selenium快速入门
定位元素
· find_element_by_id: 根据id来查找某个元素
· find_element_by_class_name: 根据类名查找元素
· find_element_by_name: 根据name属性的值来查找元素
· find_element_by_tag_name:根据标签名来查找元素
· find_element_by_xpath:根据xpath语法来获取元素
· 注意:find_element是获取第一个满足条件的元素
find_elements是获取所有满足条件的元素
操作表单元素
操作输入框:分为两步。
第一步:找到这个元素。
第二步:使用send_keys(value),将数据填充进去
· 使用clear方法可以清除输入框中的内容
· 操作按钮
操作按钮有很多种方式。比如单击、右击、双击等。
这里讲一个最常用的。就是点击。直接调用click函数就可以了
· 选择select
select元素不能直接点击。因为点击后还需要选中元素。这时候selenium就专门为select标签提供了一个类from selenium.webdriver.support.ui import Select。将获取到的元素当成参数传到这个类中,创建这个对象。以后就可以使用这个对象进行选择了。
https://www.17sucai.com/boards/53562.html
示例:
非select标签操作
行为链
有些案例在页面中的操作可能要很多步骤,可以使用鼠标行为链类 ActionChains 来完成。
比如现在要将鼠标移动到某个元素上并执行点击事件
还有更多的鼠标相关操作
· click_and_hold(element): 点击但不松开鼠标
· context_click(element): 右键点击
· double_click(element): 双击
更多方法请参考:http://selenium-python.readthedocs.io/api.html
Selenium 页面等待
Cookie操作(重点)
· 获取所有的cookie
cookies = driver.get_cookies()
· 根据 cookie 的 name 获取 cookie
value = driver.get_cookie(name)
· 删除某个cookie
driver.delete_cookie('key')
页面等待
现在的网页越来越多采用了Ajax技术,这样程序便不能确定何时某个元素完全加载出来了。
如果实际页面等待时间过长导致某个dom元素还没出来,但是你的代码直接使用了这个WebElement,那么就会抛出NullPointer的异常。
为了解决这个问题。所以 Selenium 提供了两种等待方式:一种是隐式等待、一种是显式等待
· 隐式等待:
调用driver.implicitly_wait。那么在获取不可用的元素之前,会先等待10秒中的时间
driver.implicitly_wait(10)
· 显示等待
显示等待是表明某个条件成立后才执行获取元素的操作。
也可以在等待的时候指定一个最大的时间,如果超过这个时间那么就抛出一个异常。显
示等待应该使用selenium.webdriver.support.excepted_conditions期望的条件
和selenium.webdriver.support.ui.WebDriverWait来配合完成
from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
driver = webdriver.Chrome()
driver.get("https://www.baidu.com/")
element = WebDriverWait(driver, 10).until(
EC.presence_of_element_located((By.ID, "myDynamicElement"))
一些其他的等待条件:
· presence_of_element_located:某个元素已经加载完毕了。
· presence_of_all_elements_located:网页中所有满足条件的元素都加载完毕了。
· element_to_be_clickable:某个元素是可以点击了。
更多条件请参考:http://selenium-python.readthedocs.io/waits.html