爬虫的整个流程

目录
1.爬虫简介
2.简单爬虫构架
3.URL管理器
4.网页下载器(urllib2)
5.网页解析器(Beautifulsoup)
6.完整实例,
爬取百度百科 python词条相关的1000个页面


  • 爬虫简单的构架

  • 爬虫调度端

    • 爬虫
      • URL管理器
      • 网页下载器
      • 网页解析器
  • 价值数据


  • URL 管理
    实现方式
  1. 内存 Pyton 内存:
    • 待爬取URL集合:set()
    • 已爬取URL集合, set()
  2. 关系数据库 MySQL
  3. 缓存数据库 redis
    待爬取URL集合:set()
    已爬取URL集合, set()

URL管理器:管理待抓取URL和已抓取URL集合

  • 防止重复抓取,防止循环抓取

    步骤:
    1.添加新URL到待爬取集合中
    2.判断待添加URL是否在容器中
    3.判断是否还有待爬取URL
    4.获取待爬取URL
    5.将URL从待爬取 移动到已爬取


网络下载器:将网页下载到本地文件,或者下载到本地字符串

- urllib2: Python官方基础模块
- requests: 第三方包,更强大

urlib2下载网页的方法1:最简洁方法
下载网页,使用代码 urllib2.urlopen(url)可以下载网页

    import urllib2

    #直接请求
    response1 = urllib2.urlopen('http://www.baidu.com')
    #获取状态码,如果是 200表示获取成功
    pint response.getcode()
    #读取内容
    cont = response.read()

下载网页方法2:

# urllib2 下载网页方法2:添加data. http header
    urllib2.Request 接受参数 url, data, header
    urllib2.urlopen(request)

    #代码如下:
    import urllib2
    #创建Request对象
    request = urllib2.Request(url)
    #添加数据
    request.add_data('a','1')
    #添加http的header
    request.add_header("User-Agent","Mozilla/5.0")
    #请求 request 得到 response
    response2 = urlib2.urlopen(request)

urllib2下载网页方法3:添加特殊情景处理器


    HTTPCookieProcessor 需要用户登陆
    ProxyHandler        需要代理
    HTTPSHandler        HTTPS协议
    HTTPRedirectHandler 自动跳转
    添加特殊情景步骤:
        1.opener = urllib2.build_opener(handler) #添加特殊情景
        2.urllib2.install_opener(opener)#安装特殊情景
        3.urllib2.urlopen(url) 或者 urllib2.urlopen(request) #下载网页
    import urllib2, cookielib
    #创建cookie容器
    cj = cookielib.CookieJar()
    #创建1个opener
    opener = urllib2.build_opener(urlib2.HTTPCookieProcessor(cj))
    #给urllib2安装opener
    urllib2.install_opener(opener)
    # 使用带有cookie的urllib2访问网页
    respinse = urllib2.urlopen("http://www.baidu.com/")

  • 网页解析器

    1. 模糊匹配:
      正则表达式

    2. 结构化解析:

      1. html.parser python 标准库自带的网页解析
      2. Beaufiful Soup 第三方网页解析 (它可以使用 html.parser 和 lxml 做解析器)
      3. lxml 第三方网页解析, html 和 xml 解析

    关于结构化解析:
    结构化解析: DOM (Document Object Model) 树

python3.3 之后 urllib2要改为urllib.request

  • 网页解析器:
    1. 模糊匹配:正则表达式
    2. 结构化解析: html.parser
      Beautiful
      lxml
      结构化解析-DOM(Document Object Model) 树
      网页解析器- Beautiful Soup 语法
      对于拿到的 html 网页
      |
      v
      创建 BeautifulSoup对象
      |
      v
      搜索节点
      find_all,find
      |
      v
      访问节点
      名称、属性。文字

解析过程:

    `<a href='123.html' class = 'article_link'> Python </a>
    节点名称:a
    节点属性:href='123.html'
    节点属性:class = 'article_link'
    节点内容:Python

创建BeautifulSoup 对象

from bs4 import BeautifulSoup
# 根据HTML 网页字符串创建BeautifulSoup 对象
suop = BeautifulSoup(
                    html_doc,               #HTML文档字符串
                    'html.parser',          #HTML解析器
                    from_encoding='utf8'    #HTML文档的编码
                    )

搜索节点(find_all,find)

#方法:find_all(name, attrs, string)
# 查找所有标签为 a的节点
soup.find_all('a')

#查找所有标签为a, 链接符合 /view/123.html 形式的节点
soup.find_all('a',href='/view/123.htm')
soup.find_all('a',href=re.compiler(r'/view/\d+\.htm'))

# 查找所有标签为 div, class 为 abc, 文字为 Python 的节点
soup.find_all('div', class_='abc', string = 'Python')
  • 访问节点信息
# 得到节点: <a hre='1.html'>Python</a>
# 获取查找到的节点的标签名称
node.name
# 获取查找到的 a 节点的bref属性
node['href']
# 获取查找到的a的节点的链接文字
node.get_text()

  • 网络解析器实例
from bs4 import BeautifulSoup
import re
html_doc = """
<html><head><title>The Dormouse's story</title></head>
<body>
<p class="title"><b>The Dormouse's story</b></p>

<p class="story">Once upon a time there were three little sisters; and their names were
<a href="http://example.com/elsie" class="sister" id="link1">Elsie</a>,
<a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and
<a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;
and they lived at the bottom of a well.</p>

<p class="story">...</p>
"""
print(html_doc)
soup = BeautifulSoup(html_doc, 'html.parser')
print('获取所有的链接')
links = soup.find_all('a')
for link in links:
    print(link.name, link['href'], link.get_text())

print('获取lacie的链接')

link_node = soup.find('a',href='http://example.com/lacie')
print(link_node.name, link_node['href'],link_node.get_text())

print('正则匹配')
link_node = soup.find('a',href=re.compile(r'ill'))
print(link_node.name, link_node['href'],link_node.get_text())

print('获取p段落文字')
p_node = soup.find('p',class_ = 'title')
print(p_node.name, p_node.get_text())
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,332评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,508评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 157,812评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,607评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,728评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,919评论 1 290
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,071评论 3 410
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,802评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,256评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,576评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,712评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,389评论 4 332
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,032评论 3 316
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,798评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,026评论 1 266
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,473评论 2 360
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,606评论 2 350

推荐阅读更多精彩内容

  • Python爬虫入门(urllib+Beautifulsoup) 本文包括:1、爬虫简单介绍2、爬虫架构三大模块3...
    廖少少阅读 9,798评论 0 6
  • 爬虫简介:自动访问互联网提取互联网信息中的有价值数据的程序。 什么是互联网? 互联网由各种各样的网页组成,网页有对...
    丘山Ivan阅读 485评论 0 0
  • 1.概述 对于轻量级爬虫: 只抓取静态页面 而对于高级的爬虫,需要考虑的因素就较多,如: 如何模拟登陆 验证码识别...
    victorsungo阅读 838评论 0 4
  • 爬虫是一个比较容易上手的技术,也许花5分钟看一篇文档就能爬取单个网页上的数据。但对于大规模爬虫,完全就是另一回事,...
    真依然很拉风阅读 9,651评论 5 114
  • 想你想你想你想你想你想你想你想你想你想你想你想你想你想你想你想你想你想你想你想你想你想你想你想你想你想你
    佳期如梦2020阅读 141评论 0 0