爬虫去重策略

1.将访问过的url保存到数据库中,每次访问的时候通过数据库查询;效率低,使用少。
2.将访问过的url保存到Set中,内存使用很大。
3.url经过md5等方法哈希厚保存到set中(scrapy使用该方法去重)
4.用bitmap方法,将访问过的url通过hash函数映射到某一位,冲突非常高。
5.bloomfilter方法对bitmap进行改进,多重hash函数降低冲突。1亿个url约占用内容12M。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

  • 1、将访问过的url保存到数据库中缺点:效率低2、将访问过的url保存到set中,只需要o(1)的代价就可以查询u...
    捂不暖的石头阅读 1,306评论 0 1
  • 第一章 Nginx简介 Nginx是什么 没有听过Nginx?那么一定听过它的“同行”Apache吧!Ngi...
    JokerW阅读 32,923评论 24 1,002
  • 当看到他换掉头像的那一刻,绝望铺天盖地的将我淹没了。我不知道该如何将这份心情诉说,没有人可以懂。 和他相恋三年,知...
    多伦多雨夜阅读 4,057评论 0 0
  • 推开窗,让清凉的夜幕溜走 阳光会洒扫庭除 微风穿过我的身体,吹散前尘 不远处的鸟儿欢声鼓舞 彳亍在微茫的山径,遇一...
    凉白唐阅读 1,526评论 2 1
  • 可爱乖宝宝终于睡觉了,还有一个大崽崽在玩玩具。 每天都是这样过,不知道别人的生活是不是也是重复。突然想起一句话:一...
    文稻田芯阅读 1,751评论 1 3

友情链接更多精彩内容