python爬虫基础篇(1)

背景:

首先提出两个问题,为什么要介绍爬虫呢?为什么使用python进行爬虫呢?在进行问题分析的时候,寻找解决方案的时候,第一步就是数据采集,数据分析。有些数据可以从数据库直接获取,有时候从数据库获取不是很方便(没有权限),另一种方式就是从利用爬虫从网页获取。

定义:

向网站发起请求,获取资源后分析并提取有用数据的程序
流程:爬虫一共分为4步骤:

  1. 获取url 发起request请求
  2. 获取服务器的response,
  3. 解析数据
  4. 数据存储


    爬虫流程.png

分类:

根据获取网络数据的方式可以分为
1,浏览器提交请求--->下载网页代码--->解析成页面(常用的方式)
2,模拟浏览器发送请求(获取网页代码)->提取有用的数据->存放于数据库或文件中(用到第三方框架,例如:selenium)

根据request的请求方式可以分为
1,get请求,不需要表单
2,post请求,需要表单

根据获取的数据不同可以分为
1,静态抓取
2,动态抓取

Request请求

  • url:就是你知道的那个url
  • header:
    -- User-agent:请求头中如果没有user-agent客户端配置,服务端可能将你当做一个非法用户host;
    -- cookies:cookie用来保存登录信息
    爬虫一定要加上请求头,否则很容被识别出来,403禁止访问

以上是对爬虫的基本概述,接下来会对每一部分进行展开讲解

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容