【Python爬虫】爬取二手车之家图片并保存到本地

image.png

最近由于需要对即将上线的APP进行内测,需要上传车源图片进行测试,这个时候我就想到了二手车之家的大量车源图片,可爬取过来直接使用,于是乎就写了这个爬虫。

需要准备的库:requests,beautifulsoup

# 导入需要使用的包,requests获取页面,beautifulsoup解析页面
import requests
from bs4 import BeautifulSoup

# url是爬取的目标地址,path是需要保存的本地路径
url = 'https://www.che168.com/dealer/264907/23808458.html'
path = '//Users/huixing/pictures/che168'
res = requests.get(url)
res.encoding = 'gb2312'
html = res.text

# 解析获取到的数据
soup = BeautifulSoup(html, 'lxml')
li_list = soup.find_all('li', class_='grid-10')

# 循环li,将每一个li都爬取下来
for li in li_list:
    img = li.find('img')
    img_src = 'http://' + img['src2'][2:]
    
    # 将取到的链接img_src一一访问,获取图片内容,保存到本地
    data = requests.get(img_src, stream=True).content
    with open(path + '/' + img_src.split('/')[-1], 'wb') as fp:
        fp.write(data)

以上就是爬取并保存的思路以及代码,本次爬取在保存到本地时候遇到了很多问题,但是在攀攀老师的帮助下解决了这个问题。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 声明:本文讲解的实战内容,均仅用于学习交流,请勿用于任何商业用途! 一、前言 强烈建议:请在电脑的陪同下,阅读本文...
    Bruce_Szh阅读 12,783评论 6 28
  • 背景 曾经几时,一个ONE 席卷了各类青年的手机。这款APP每天发布的一句话,一张图它顺应这个快速且碎片化的时代,...
    海浪浪里个浪阅读 2,156评论 0 1
  • 1.1 为什么要使用lambda表达式 "lambda 表达式"是一段可以传递的代码,因此它可以被执行一次或多次。...
    Kotyo阅读 696评论 0 1
  • 答案在风中飘荡 商丘一高二年级14班 郭一鸣 坐在书桌前,二十一点二十八分,刚刚完成了今天的学习任务,也许用完成是...
    郭晓光阅读 451评论 1 2
  • 母亲临时决定要做胆结石的手术。于是我匆匆赶回县城。所幸一切顺利,当我到达医院时,母亲已经安然住下,正和同房的病友们...
    生生不已阅读 265评论 0 0