爬虫练手(一) wallpaper.com

结果


Result.png

代码

import requests
import os
import time
from bs4 import BeautifulSoup
from multiprocessing import Pool


url_host = 'http://wallpaperswide.com'

headers = {
    'UserAgent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.21 Safari/537.36',
    'Connection': 'keep-alive'
}

headers2 = {
    "Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8",
    "Accept-Encoding": "gzip, deflate",
    "Accept-Language": "zh-CN,zh;q=0.8,en-US;q=0.5,en;q=0.3",
    "Connection": "keep-alive",
    "User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64; rv:48.0) Gecko/20100101 Firefox/48.0",
    "Host": "wallpaperswide.com",
    "Upgrade-Insecure-Requests": 1
}

proxies = {'HTTP': '123.56.28.196:8888'}


def get_image_links(page_url):
    # print('get_image_links starts')
    wb_data = requests.get(page_url, headers=headers, proxies=proxies, timeout=10)
    time.sleep(1)
    if wb_data.status_code == 200:
        soup = BeautifulSoup(wb_data.text, 'lxml')
        if soup.find('div', 'pagination'):
            img_links = soup.select('#content > ul > li > div > a')
            # print(img_links)
            for link in img_links:
                data = {
                    'link': link.get('href'),
                    'title': link.get('title')
                }
                get_imgs(data)
        else:
            print('last page')
    else:
        print('<Response [%s]>' % wb_data.status_code)


def get_imgs(data):
    # print('get_imgs starts')
    img_url = '{}{}'.format(url_host, data['link'])
    wb_data = requests.get(img_url, headers=headers)

    if wb_data.status_code == 200:
        soup = BeautifulSoup(wb_data.text, 'lxml')
        download_titles = soup.select('#wallpaper-resolutions > a')
        for title in download_titles:
            if title.get('title').find('1920 x 1080') != -1:
                download_img(title.get('href'))
            else:
                pass
                # print('not found')
    else:
        return '<Response: [%s]>' % wb_data.status_code


def download_img(download_url):
    print('download_img starts')
    d_url = '{}{}'.format(url_host, download_url)
    r = requests.get(d_url, headers=headers2, proxies=proxies, timeout=10)

    base_dir = os.path.dirname(__file__)  # 获取当前文件夹的绝对路径
    file_path = os.path.join(base_dir, 'papers')  # 获取当前文件夹内的Test_Data文件
    # print(file_path)

    target = '{}/{}'.format(file_path, d_url.split('/')[4])
    print(d_url.split('/')[4])
    with open(target, "wb") as fs:
        fs.write(r.content)


def get_cates_link(host_url):
    cates_link = []
    wb_data = requests.get(host_url, headers=headers, proxies=proxies, timeout=10)
    if wb_data.status_code == 200:
        soup = BeautifulSoup(wb_data.text, 'lxml')
        cate_links = soup.select('ul.side-panel.categories > li > a')
        for cate in cate_links:
            cates_link.append(cate.get('href'))
        return cates_link
    else:
        print('<Response [%s]>' % wb_data.status_code)


if __name__ == '__main__':
    # http://wallpaperswide.com/girls-desktop-wallpapers/page/2
    url_withoutpages = ['{}{}/page/'.format(url_host, cate) for cate in get_cates_link(url_host)]

    url_finals = []
    for url in url_withoutpages:
        for i in range(1, 31):
            url_withpage = '{}{}'.format(url, str(i))
            url_finals.append(url_withpage)
    # print(url_finals)

    pool = Pool()
    pool.map(get_image_links, url_finals)
    pool.close()
    pool.join()

总结

1. 图片下载链接虽然抓取到,但是下载时图片打不开,折腾了很久,最后,参考火狐图片下载时的Resquest,修改Header才可以。

还发现一个问题,把图片的链接输入到Chrome浏览器,然后检测其网络状况时,发现网络状态根本抓不到,最后打开火狐才发现Request和Response的信息,修改Header如下:
headers2 = {
    "Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8",
    "Accept-Encoding": "gzip, deflate",
    "Accept-Language": "zh-CN,zh;q=0.8,en-US;q=0.5,en;q=0.3",
    "Connection": "keep-alive",
    "User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64; rv:48.0) Gecko/20100101 Firefox/48.0",
    "Host": "wallpaperswide.com",
    "Upgrade-Insecure-Requests": 1
}

2. 图片存储路径问题

//   存储问题,本以为和HTML的相对路径类似,../ 和 ./  但尝试了一下,还是不行,最后还是用了笨方法,用了绝对路径。

base_dir = os.path.dirname(__file__)  # 获取当前文件夹的绝对路径
file_path = os.path.join(base_dir, 'papers')  # 获取当前文件夹内的Test_Data文件
# print(file_path)

target = '{}/{}'.format(file_path, d_url.split('/')[4]) // 后面的url方法是为了截取url中的文件名,可以忽略即可

3. print打印

print('<Response [%s]>' % wb_data.status_code)
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,684评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,143评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,214评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,788评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,796评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,665评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,027评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,679评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 41,346评论 1 299
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,664评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,766评论 1 331
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,412评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,015评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,974评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,203评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,073评论 2 350
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,501评论 2 343

推荐阅读更多精彩内容