爬虫基础 - 爬虫的基本原理

我们可以把互联网比作一张大网,而爬虫(即网络爬虫)便是在网上爬行的蜘蛛。把网的节点比作一个个网页,爬虫爬到的这就是相当于访问了该页面,获取了其信息。可以把节点间的连线比作网页与网页之间的链接关系,这样蜘蛛通过一个节点后,可以顺着节点连线继续爬行到下一个节点,即通过一个网页继续获取后续的网页,这样整个网的节点便可以被蜘蛛全部爬行到,网站的数据就可以被抓取下来。

爬虫概述

简单来说,爬虫就是获取网页并提取和保存信息的自动化程序。

获取网页

爬虫首先要做的就是获取网页,这里就是获取网页的源代码。源代码例包含了网页的部分有用信息,所有只要把源代码获取下来,就可以从中提取想要的信息了。
Python提供了许多库来帮助我们事先网页获取,如urllib、requests等。我们可以用这些库来帮助我们实现HTTP请求操作,请求和响应都可以用这些类库提供的数据结构表示,得到响应之后只需要解析数据结构中的Body部分即可,及得到网页的源代码,这样我们可以用程序来实现获取网页的过程了。

提取信息

获取了网页源代码后,接下来就是分析网页源代码,从中提取我们想要的数据。首先,最通用的方法就是采用正则表达式提取,这是一个万能的棒法,但是在构造正则表达式时比较复杂且容易出错。
另外,由于网页的结构有一定的规则,所以还有一些根据网页节点属性、CSS选择器或XPath来提取网页信息的库,如Beautiful Soup、pyquery、lxml等。使用这些库,我们可以高效快速地从中提取网页信息,如节点的属性、文本值等。

保存数据

提取信息后,我们一般会将提取到的数据保存到某处以便后续使用。这里保存形式有多种多样,如可以简单保存为TXT文本或JSON文本,也可以保存到数据库,如MySQL和MongoDB等,也可保存至远程服务器,如借助SFTP进行操作。

自动化程序

说到自动化程序,意思是说爬虫可以代替人来完成这些操作。首先,我们手工当然可以提取这些信息,但是当量特别大或者快速获取大量数据的画,肯定还是要借助程序。爬虫就是代替我们来完成这份爬取工作的自动化程序,它可以在抓取过程中进行各种异常处理、错误重试等操作,确保爬取持续高效地运行。

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 关于Mongodb的全面总结 MongoDB的内部构造《MongoDB The Definitive Guide》...
    中v中阅读 32,012评论 2 89
  • HTTP基本原理 URI、URL、URN(Uninform Resource) URI(Identifier):统...
    GHope阅读 2,125评论 2 26
  • Android 自定义View的各种姿势1 Activity的显示之ViewRootImpl详解 Activity...
    passiontim阅读 173,132评论 25 708
  • 用两张图告诉你,为什么你的 App 会卡顿? - Android - 掘金 Cover 有什么料? 从这篇文章中你...
    hw1212阅读 12,884评论 2 59
  • 你是一个认真踏实的人,一步一步走向你的目标。因为这种坚持和信念,人们常常觉得你有点固执,在人际交往问题上你必须特别...
    肆舞阅读 163评论 0 0