爬虫有什么用?在Python中爬虫要做的是什么?
其实我们所谓的上网便是由用户端计算机发送请求给目标计算机,将目标计算机的数据下载到本地的过程。
只不过,用户获取网络数据的方式是: 浏览器提交请求->下载网页代码->解析/渲染成页面。
而爬虫程序要做的就是: 模拟浏览器发送请求->下载网页代码->只提取有用的数据->存放于数据库或文件中
爬虫基本流程:
- 发送请求 ---> 获取响应内容 ---> 解析内容 ---> 保存数据
- 1、发起请求使用http库向目标站点发起请求,即发送一个RequestRequest包含:请求头、请求体等
- 2、获取响应内容如果服务器能正常响应,则会得到一个ResponseResponse包含:html,json,图片,视频等
- 3、解析内容解析html数据:正则表达式,第三方解析库如Beautifulsoup,pyquery等解析json数据:json模块解析二进制数据:以b的方式写入文件
- 4、分类保存数据如:excel表格、数据库文件
如果我们把互联网比作一张大的蜘蛛网,那一台计算机上的数据便是蜘蛛网上的一个猎物,而爬虫程序就是一只小蜘蛛,沿着蜘蛛网抓取自己想要的猎物(数据)。
爬虫的定义: 向网站发起请求,获取资源后分析并提取有用数据的程序
爬虫的价值: 互联网中最有价值的便是数据,比如天猫商城的商品信息,链家网的租房信息,雪球网的证券投资信息等等,这些数据都代表了各个行业的真金白银,可以说,谁掌握了行业内的第一手数据,谁就成了整个行业的主宰,如果把整个互联网的数据比喻为一座宝藏,那我们的爬虫课程就是来教大家如何来高效地挖掘这些宝藏,掌握了爬虫技能,你就成了所有互联网信息公司幕后的老板,换言之,它们都在免费为你提供有价值的数据。
总结爬虫流程: 爬取--->解析--->存储
爬虫所需工具:
- 请求库:requests,selenium
- 解析库:正则,beautifulsoup,pyquery
- 存储库:文件,MySQL,Mongodb,Redis
- 爬虫常用框架: scrapy