爬虫去重策略

1、将url保存到数据库中,检查时在数据库中查找。效率太低,频繁的切换内外存。使用mysql做去重,对url地址进行md5,base64加密,加密之后会得到一串字符,判断字符串是否在mysql表中,如果在表示已经爬取过了,如果不在,表示没有爬取,执行请求,将加密后的url地址存入表中。缺点: 但是这个方法对mysql压力过大,导致崩溃,不推荐

2、将url保存到程序内存set集合中,查询速度快,但是占用内存太大。


image.png

3、与第二种方法类似,只是进一步改进之后,将url通过哈希编码压缩在保存在程序内存set集合中,相较于第二种方法直接保存,可以大大压缩存储空间。scrapy采用此方法。使用scrapy_redis的去重策略,会将已经爬取的url地址经过编码后存入redis,并且会做数据持久化,当爬虫再次启动时,会重新加载本地的数据,对爬虫的url做去重。缺点:如果数据量较大的时候,会占用较多的内存空间。

4、用bitmap方法,将访问过的URL通过hash函数映射到某一位。这个方法将url通过哈希算法进一步压缩空间至某位上,存储空间大大减小,但是冲突率很高,很有可能两个不同的url哈希到同一个位,导致第二个没有的url被判断为已存在。

5、布隆过滤器:通过boolmfilter算法压缩url,在压缩存储空间的同时,也 大大降低冲突率,一亿url经过布隆过滤器后大约为11 M存储空间。布隆过滤器呢,原理是这样的,一个URL过来,通过M个特别的哈希函数对其进行运算,映射成一个M维位数组的M个维度。新的URL诞生时,进行同样操作并逐个与set中的位数组做“与”运算,若结果改变则说明URL一定没有被抓取过,若结果一致则说明URL有一定概率被抓取过。布隆过滤器的插入和查询效率都是O(M),远低于其他一般策略。

常用方法:

redis集合和布隆过滤器

©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

  • 一年一度的五一国际劳动节在万众期待中再次来到了我们的身边,你出门旅游了吗?去了哪些地方呢?玩得开心吗?吃得舒...
    凡人sxj阅读 2,662评论 2 1
  • 每年元月初你都会从皖返闽 参加一年一度厦门国际马拉松 这一爱好坚持整整九年 你说离开鹭岛回故乡发展,梦却留在厦门 ...
    卓夫文暄阅读 2,755评论 0 7
  • 掐指一算,已经有六年没和父母在家过年啦。 偶尔也会有人问,你难道就不想家吗? 废话。 曾经一首《常回家看看》竟让我...
    大張冰阅读 1,121评论 0 1
  • 欢迎关注本人博客:云端筑梦师 描述Python 字典 get() 方法和 setdefault()方法类似,返回指...
    Aurora_Twinkle阅读 3,966评论 2 1
  • "如果真的和她走进理想的爱情世界 那写诗将变得毫无意义" 有限的时间 何谓不浪费 不过是听从心里最真实的声音 让灵...
    白睿晰阅读 1,522评论 0 2

友情链接更多精彩内容