爬虫的整个流程

目录
1.爬虫简介
2.简单爬虫构架
3.URL管理器
4.网页下载器(urllib2)
5.网页解析器(Beautifulsoup)
6.完整实例,
爬取百度百科 python词条相关的1000个页面


  • 爬虫简单的构架

  • 爬虫调度端

    • 爬虫
      • URL管理器
      • 网页下载器
      • 网页解析器
  • 价值数据


  • URL 管理
    实现方式
  1. 内存 Pyton 内存:
    • 待爬取URL集合:set()
    • 已爬取URL集合, set()
  2. 关系数据库 MySQL
  3. 缓存数据库 redis
    待爬取URL集合:set()
    已爬取URL集合, set()

URL管理器:管理待抓取URL和已抓取URL集合

  • 防止重复抓取,防止循环抓取

    步骤:
    1.添加新URL到待爬取集合中
    2.判断待添加URL是否在容器中
    3.判断是否还有待爬取URL
    4.获取待爬取URL
    5.将URL从待爬取 移动到已爬取


网络下载器:将网页下载到本地文件,或者下载到本地字符串

- urllib2: Python官方基础模块
- requests: 第三方包,更强大

urlib2下载网页的方法1:最简洁方法
下载网页,使用代码 urllib2.urlopen(url)可以下载网页

    import urllib2

    #直接请求
    response1 = urllib2.urlopen('http://www.baidu.com')
    #获取状态码,如果是 200表示获取成功
    pint response.getcode()
    #读取内容
    cont = response.read()

下载网页方法2:

# urllib2 下载网页方法2:添加data. http header
    urllib2.Request 接受参数 url, data, header
    urllib2.urlopen(request)

    #代码如下:
    import urllib2
    #创建Request对象
    request = urllib2.Request(url)
    #添加数据
    request.add_data('a','1')
    #添加http的header
    request.add_header("User-Agent","Mozilla/5.0")
    #请求 request 得到 response
    response2 = urlib2.urlopen(request)

urllib2下载网页方法3:添加特殊情景处理器


    HTTPCookieProcessor 需要用户登陆
    ProxyHandler        需要代理
    HTTPSHandler        HTTPS协议
    HTTPRedirectHandler 自动跳转
    添加特殊情景步骤:
        1.opener = urllib2.build_opener(handler) #添加特殊情景
        2.urllib2.install_opener(opener)#安装特殊情景
        3.urllib2.urlopen(url) 或者 urllib2.urlopen(request) #下载网页
    import urllib2, cookielib
    #创建cookie容器
    cj = cookielib.CookieJar()
    #创建1个opener
    opener = urllib2.build_opener(urlib2.HTTPCookieProcessor(cj))
    #给urllib2安装opener
    urllib2.install_opener(opener)
    # 使用带有cookie的urllib2访问网页
    respinse = urllib2.urlopen("http://www.baidu.com/")

  • 网页解析器

    1. 模糊匹配:
      正则表达式

    2. 结构化解析:

      1. html.parser python 标准库自带的网页解析
      2. Beaufiful Soup 第三方网页解析 (它可以使用 html.parser 和 lxml 做解析器)
      3. lxml 第三方网页解析, html 和 xml 解析

    关于结构化解析:
    结构化解析: DOM (Document Object Model) 树

python3.3 之后 urllib2要改为urllib.request

  • 网页解析器:
    1. 模糊匹配:正则表达式
    2. 结构化解析: html.parser
      Beautiful
      lxml
      结构化解析-DOM(Document Object Model) 树
      网页解析器- Beautiful Soup 语法
      对于拿到的 html 网页
      |
      v
      创建 BeautifulSoup对象
      |
      v
      搜索节点
      find_all,find
      |
      v
      访问节点
      名称、属性。文字

解析过程:

    `<a href='123.html' class = 'article_link'> Python </a>
    节点名称:a
    节点属性:href='123.html'
    节点属性:class = 'article_link'
    节点内容:Python

创建BeautifulSoup 对象

from bs4 import BeautifulSoup
# 根据HTML 网页字符串创建BeautifulSoup 对象
suop = BeautifulSoup(
                    html_doc,               #HTML文档字符串
                    'html.parser',          #HTML解析器
                    from_encoding='utf8'    #HTML文档的编码
                    )

搜索节点(find_all,find)

#方法:find_all(name, attrs, string)
# 查找所有标签为 a的节点
soup.find_all('a')

#查找所有标签为a, 链接符合 /view/123.html 形式的节点
soup.find_all('a',href='/view/123.htm')
soup.find_all('a',href=re.compiler(r'/view/\d+\.htm'))

# 查找所有标签为 div, class 为 abc, 文字为 Python 的节点
soup.find_all('div', class_='abc', string = 'Python')
  • 访问节点信息
# 得到节点: <a hre='1.html'>Python</a>
# 获取查找到的节点的标签名称
node.name
# 获取查找到的 a 节点的bref属性
node['href']
# 获取查找到的a的节点的链接文字
node.get_text()

  • 网络解析器实例
from bs4 import BeautifulSoup
import re
html_doc = """
<html><head><title>The Dormouse's story</title></head>
<body>
<p class="title"><b>The Dormouse's story</b></p>

<p class="story">Once upon a time there were three little sisters; and their names were
<a href="http://example.com/elsie" class="sister" id="link1">Elsie</a>,
<a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and
<a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;
and they lived at the bottom of a well.</p>

<p class="story">...</p>
"""
print(html_doc)
soup = BeautifulSoup(html_doc, 'html.parser')
print('获取所有的链接')
links = soup.find_all('a')
for link in links:
    print(link.name, link['href'], link.get_text())

print('获取lacie的链接')

link_node = soup.find('a',href='http://example.com/lacie')
print(link_node.name, link_node['href'],link_node.get_text())

print('正则匹配')
link_node = soup.find('a',href=re.compile(r'ill'))
print(link_node.name, link_node['href'],link_node.get_text())

print('获取p段落文字')
p_node = soup.find('p',class_ = 'title')
print(p_node.name, p_node.get_text())
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

  • Python爬虫入门(urllib+Beautifulsoup) 本文包括:1、爬虫简单介绍2、爬虫架构三大模块3...
    廖少少阅读 13,345评论 0 6
  • 爬虫简介:自动访问互联网提取互联网信息中的有价值数据的程序。 什么是互联网? 互联网由各种各样的网页组成,网页有对...
    丘山Ivan阅读 3,627评论 0 0
  • 1.概述 对于轻量级爬虫: 只抓取静态页面 而对于高级的爬虫,需要考虑的因素就较多,如: 如何模拟登陆 验证码识别...
    victorsungo阅读 4,344评论 0 4
  • 爬虫是一个比较容易上手的技术,也许花5分钟看一篇文档就能爬取单个网页上的数据。但对于大规模爬虫,完全就是另一回事,...
    真依然很拉风阅读 13,239评论 5 114
  • 想你想你想你想你想你想你想你想你想你想你想你想你想你想你想你想你想你想你想你想你想你想你想你想你想你想你
    佳期如梦2020阅读 1,333评论 0 0

友情链接更多精彩内容