如何成为一个合格的代理池

其实,在github上我们可以找到好多代理池,说白了都不知道是第几手数据了,都是爬取多个网站然后进行数据清洗,或redis或存库或flask实现http的api,但是,笔者需求很单纯,每日几百个稳定代理即可,然而即使榜首的7Kstar也未能满足笔者的需求,算咯,自己来吧。

经常写爬虫用代理池的小伙伴应该也清楚免费代理的质量之低,首先推荐个大佬的代理服务,而本次的代理池也基于它去完成的。

http://ip.jiangxianli.com

那么开始我们今天的主题,如何成为一个合格的代理池!


代理存活检测模块

def alive(url):
    proxy = {'http': url.replace('https', 'http'),
             'https': url.replace('http', 'https')
             }
    try:
        print("当前检测代理:{}".format(url))
        r = requests.get('https://www.baidu.com/',proxies=proxy,headers=headers,timeout=3)
        if r.status_code==200:
            return 200
    except:
        pass

我们可以借助常见的网站去尝试代理访问来判断代理是否存活,但有些代理可以访问百度但不一定可以访问你的目标站点,所以可以根据自己的需求变更存活检测规则。

数据获取与处理模块

数据获取模块采用了我们刚刚推荐的站点,而且它的机制是每隔10s会刷新一边数据,棒呆!我们根据这个特性每隔十秒获取一次数据。

def getinfo():
    try:
        response1 = requests.get(url1, headers=headers)
        response2 = requests.get(url2, headers=headers)
        response3 = requests.get(url3, headers=headers)
        r=(response1.text+response2.text+response3.text).replace('\n','').replace('\t','').replace(' ','')
        res = re.findall('<buttonclass="btnbtn-smbtn-copy"data-url="(.*?)"', r)
        return res
    except:
        print('网络不稳定,摸鱼ing......')

数据存储模块会对返回结果进行存活判断,然后将有用数据丢到了一个临时文件,为什么要加这一层过渡呢?当然是让它承担日志功能与去重前备份。

def saveinfo(i,q):
    if alive(i):
        print('获得有效代理:{}'.format(i))
        fa=open('proxiestmp.txt','a')
        fa.write(i+'\n')
        fa.close()
    else:
        pass
    q.put(i)

数据梳理模块我们根据刚刚的临时文件进行set处理去重。

def setinfo():
    fw=open('proxies.txt','w')
    fw.writelines(set(open('proxiestmp.txt','r').readlines()))
    fw.close()

最后当然是一个多进程并发的调度,为什么要加入多进程?不是会sleep10s等待么?我们需要考虑到一次拿到数据后存活判断的耗时,如果这10s内没有完成存活检测(因为代理的质量原因网络延时是一定存在的)就会对下次请求造成延误,所以我们的多进程并发就是针对的代理存活检测模块,保证每10s一个单位时间内如期完成任务。

#进程池管理模块
def poolmana(res):
    p = Pool(30)
    q = Manager().Queue()
    for i in res:
        p.apply_async(saveinfo, args=(i,q,))
    p.close()
    p.join()

数据清洗模块

为什么要数据清理,因为一段时间不用,代理极有可能死掉了,那就重新再检测一遍存活咯。

def wash(i,q):
    if alive(i):
        fw = open('proxies.txt', 'a')
        fw.write(i + '\n')
        fw.close()
    q.put(i)

这种东西,谁愿意等呢,多进程安排~

#进程池管理模块
def poolmana(res):
    p = Pool(10)
    q = Manager().Queue()
    print('代理池数据清洗开始......\n耗时取决于当前代理池大小......\n请耐心等待......')
    for i in res:
        i=i.replace('\n','')
        p.apply_async(wash, args=(i,q,))
    p.close()
    p.join()

考虑到某些不可描述的以为,在数据清洗前会帮你们做个备份啦,另外还会重新从临时文件去重一次,防止遗漏。

def run():
    setinfo()
    fr=open('proxies.txt','r+')
    res=fr.readlines()
    fr.truncate()
    fr.close()
    fc=open('proxiesback.txt','w')
    fc.writelines(res)
    fc.close()
    poolmana(res)
    print('代理池清洗完毕......')

API接口

哼哼,希望大家想起它的时候,会认为我做的是轮子而不是成品,所以额外开发了个接口供其它平台调度,将会返回一个极高质量的代理列表。

def run():
    fr=open('proxies.txt', 'r')
    read=fr.readlines()
    fr.close()
    res=[]
    for i in read:
        r=i.replace('\n','')
        res.append(r)
    return res

运行展示

是的,默认采集600次,大家根据自己的需求调整就是。

  ____      _     ____                _
 / ___| ___| |_  |  _ \ _ __ _____  _(_) ___  ___
| |  _ / _ \ __| | |_) | '__/ _ \ \/ / |/ _ \/ __|
| |_| |  __/ |_  |  __/| | | (_) >  <| |  __/\__ \
 \____|\___|\__| |_|   |_|  \___/_/\_\_|\___||___/

                        By Tide_RabbitMask | V 1.0

代理池拓展开始......
预计等待时间100分钟......
预计采集有效去重代理数量600-600000+......

当前第1次采集
当前检测代理:http://127.0.0.1:80

跑出的结果以日志形式存放在tmp文件,然后去重后存入proxies.txt。

然后,使用刚刚的api模块调用即可,这毕竟是个轮子,如果你想的话,花五分钟丢flask做个http接口亦可,而我这里的需求是用来给爬虫平台做调度的,所以如此设计。

GetProxies项目地址:
https://github.com/rabbitmask/GetProxies

那么,玩的开心。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

友情链接更多精彩内容