人生中第一次爬虫...(妹子组图)

python的介绍这里不再赘述,虽说用很多语言都能写出爬虫(哪怕是oc或者swift),但python毫无疑问是当前写爬虫最为优秀的语言之一。

虽说很久之前就下载了python3,PyCharm,但真正意义的学习是昨天开始的。

而且,学习python的初衷,也是为了写一手爬虫出去装逼,所以那些基础语法也就是大概看看,抱着用到时去谷歌的心态跳过了基础学习这一相当重要的过程(先整出一手爬虫再说)。

爬虫我个人认为上手很简单,主要有三点:网络请求,文件操作,正则表达

抱着借鉴一手的心态,去网上各种找源码。然而,本来python3的源码就相对较少,而且下过来大部分运行不了,各种报错。少数运行成功也没有成功爬取数据,看来还是要靠自己啊(之所以爬不出数据,原因很多,大多和爬取页面格式改变有关)。

首先确定爬取数据的目标:某个运行失败的源码中的目标:煎蛋妹子图(这就很舒服了。。。)

引用一些模块
import urllib.request 网络请求相关
import os 文件操作相关
import re 正则表达相关
import random 单纯的获取随机数

作为初学者,没有用框架的经验,什么scrapy的I don't care。

下面是主要代码(多为拷贝后修改)

首先,先写网络请求的代码

  def url_open(url):

     req = urllib.request.Request(url)
        req.add_header('User-Agent','Mozilla/5.0 (X11; Ubuntu; Linux         x86_64; rv:36.0) Gecko/20170522 Firefox/36.0')
    response = urllib.request.urlopen(req)
    return response.read()

然后去创建文件夹

def download_mm_img (folder='default',pages=10):
    if not os.path.exists(folder):#判断是否存在该文件夹
        os.mkdir(folder) #新建文件夹
    os.chdir(folder) #跳转到文件夹
    folder_top = os.getcwd() #获取当前工作目录
    for i in range(pages):
        page_num -= i #递减下载几个网页
        page_url = url + 'page-' + str(page_num) + '#comments' #组合网页地址
        img_addrs = find_imgs(page_url) #获取图片地址
        save_imgs(img_addrs,page_num,folder) #保存图片
        os.chdir(folder_top) #修改当前目录,也就是返回上一层

获取网页最新的地址

def get_page(url):
    html = url_open(url).decode('utf-8')
    pattern = r'<span class="current-comment-page">\[(\d{2})\]</span>' # 正则表达式寻找页面地址,这里要去看网页源代码,然后根据代码确定
    result = re.findall(pattern,html)
    page = int(result[0])
    return page

获取图片地址

def find_imgs(page_url):
    pattern = r'<img src="(.*?\.jpg)"'
    html = url_open(page_url).decode('utf-8')
    img_addrs = re.findall(pattern,html)
    return img_addrs

保存每个页面的图片

 def save_imgs(img_addrs,page_num,folder):

    if not os.path.exists(str(page_num)):#判断是否存在该文件夹
        os.mkdir(str(page_num))

    os.chdir(str(page_num))
    count = 0;

    for i in img_addrs:
         count += 1
          if not i.startswith('http:'):
             i = 'http:' + i

    filename = str(count) + 'wylog' + str(int(random.random()*1000)) + 'wylog' +  i.split('/')[-1]
    print('wylog',filename,i)
    image = url_open(i)
    with open(filename,'wb') as f:
        f.write(image)
        f.close()

下载过来的图片:


mm.png

源码地址:https://github.com/wangyongy/first-python

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

  • 1 前言 作为一名合格的数据分析师,其完整的技术知识体系必须贯穿数据获取、数据存储、数据提取、数据分析、数据挖掘、...
    whenif阅读 18,212评论 45 523
  • Android 自定义View的各种姿势1 Activity的显示之ViewRootImpl详解 Activity...
    passiontim阅读 176,099评论 25 709
  • 对象等同性是比对两个对象非常有用的功能。但一般情况 == 操作符比对出来的结果可能并不准确或并不是我们想要的,因为...
    Daeva_Song阅读 4,136评论 0 1
  • 轻拂昏沉沉墙角打盹的书包 小心捧起的一朵花儿 不经意就润透了 幽蓝色的潮 编织着花香的一簇簇亮白火苗 便细碎地闪烁...
    无风TINO阅读 1,454评论 2 3
  • 坏习惯一:吃饭吃太饱 “多吃点,再吃一点”,吃得多,就能长得高。但事实却是相反的。人在饥饿状态下,会促进脑垂体更多...
    点后ifeof阅读 6,478评论 0 1

友情链接更多精彩内容