request模块中的方法

Requests

import requests

url='http://example.test/secret'`

response=requests.get(url,auth=('dan','h0tdish'))`

response.status_code`

200

response.content`

u``'Welcome to the secret page!'

|

只是在调用方法的时候增加了一个auth关键字函数
我敢打赌你不用查文档也能记住。

错误处理 Error Handling

Requests对错误的处理也是很非常方面。如果你使用了不正确的用户名和密码,urllib2会引发一个urllib2.URLError错误,然而Requests会像你期望的那样返回一个正常的response对象。只需查看response.ok的布尔值便可以知道是否登陆成功。

(https://www.jb51.net/article/63711.htm#)

>>> response = requests.get(url,auth``=``(``'dan'``,``'wrongPass'``))

>>> response.ok

False

|
使用selenium进行爬虫
1、挑选需求爬的URL地址,将其放入需求网络爬虫的队列,也可以把爬到的符合一定需求的地址放入这个队列中2、获取一个url进行DNS解析,获取其主机IP3、针对这个url地址将其页面加载下来(也就是这个页面的html或者jsp)加载下来,不同的框架有不同的页面处理方法,和抽取有用信息的方法,类似根据id选择抽取,根据标签抽取,根据class抽取,根据css抽取等。4、最后Pipeline负责抽取结果的处理,包括计算、持久化到文件、数据库等 在这里我们介绍一种十分方便的爬虫工具:selenium,selenium爬虫个人感觉适合对那种需求登录的页面进行爬取,因为它本身可以加载浏览器驱动,模拟登录这个操作,然后把需求的静态页面加载进来。

  from selenium import webdriver
  import time

 browser = webdriver.Chrome()
  browser = webdriver.Firefox()

 help(webdriver)

加载谷歌浏览器驱动,这里我使用的谷歌,你也可以下载firefox或者ie的驱动

使用什么驱动则模拟该操作的就是这个浏览器,需要注意的是,chromedriver.exe对不同浏览器版本也是有自己版本的

browser = webdriver.Chrome("D:\driver\chromedriver.exe")

这里通过get请求需要模拟登录的页面

browser.get("https://crm.xiaoshouyi.com/global/login.action")

print(browser.page_source)

browser.switch_to_frame("page_source")

这里通过name选择器获取登录名和密码并把需要set值给放进去

 browser.find_element_by_name("loginName").send_keys("你的登录名")
 browser.find_element_by_name("password").send_keys("你的登录密码")
这一步模拟点击登录
 browser.find_element_by_class_name("pg-btn-submit").click()
 browser.implicitly_wait(10)
 time.sleep(5)

这一步模拟点击某个a标签连接

hrefs=browser.find_element_by_partial_link_text(u"客户")
hrefs.click()

 time.sleep(5)

我们可以通过browser.page_source把当前页面的静态资源打印出来看看,然后根据自己需求进行提取有用的资源

print(browser.page_source) 现在我们可以看到,我们已经把页面的静态资源加载到了browser里面,我们可以开始根据自己的需求从browser里面拿自己需要的资源了,我这里先简单介绍一下selenium的使用,有关其具体选择器和选择方法,如下所示:

browser.find_element_by_id("id的name")
browser.find_element("")
browser.find_element_by_tag_name("标签name")
browser.find_element_by_class_name("classname")
browser.find_element_by_css_selector("css选择器,cssname")
browser.find_element_by_partial_link_text("带有链接的文本,获取其跳转地址,后面跟click事件可以模拟跳转")


browser.find_element_by_xpath("里面可以跟正则表达式,XPath一般在实际自动化测试项目中用到比较多,其定位元素十分方便")此处例举xpath用法:假如一个html是这个样子的:<html>
<body>
 <form id="myform">
 <input name="name" type="text" />
  <input name="pwd" type="password" />
  <input name="continue" type="submit" value="Login" />
</form>
</body>
<html>我们需要用xpath定位他的pwd:
pwd =browser.find_element_by_xpath("//form[input/@name='pwd']")---获取form下input标签中name为pwd的资源
pwd = browser.find_element_by_xpath("//form[@id='loginForm']/input[2]")---获取第二个input标签的资源
pwd = browser.find_element_by_xpath("//input[@name='pwd']")---直接获取input为pwd的资源

xpat语法与bs4

xpth获取属性//a[@class="name"]/@img
      获取文本//a[@class="name"]/@img/text()

  bs4获取属性
   href = site.select('td a')[0].attrs['href']
  获取文本
   catalog = site.select('td')[1].get_text()
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容