Python和爱好的结合。
今天是爬虫姐姐
平时喜欢编织,遇到编织图解会收藏起来。 遇到一个帖子,以图片的方式上传了一本编织书,整本书有80多张jpg图片,姐姐喜欢这本书,但是一张张保存下来,有点麻烦,于是,爬虫姐姐上线,爬下来吧。
一番查资料,读文档,看别人的代码,终于搞出来了,分享代码。 尝试了两种方式,urllib.request包 和requests包,均成功。 相比较,requests兼容性以及简洁性更有优势。
上代码:
#-*- coding:utf-8 -*-
import urllib.request
import re,os
import urllib
from urllib.error import HTTPError
import requests
#根据给定的网址来获取网页详细信息,得到的html就是网页的源代码
def getHtml(url):
'''
#使用urllib.request
page = urllib.request.urlopen(url)
html = page.read()
return html.decode('gb18030')
'''
#使用requests
response = requests.get(url)
return response.text
#获取网页所有图片的URL列表
def getImgList(html):
reg = r'src="(.+?\.jpg)"'
imgre = re.compile(reg)
imglist = imgre.findall(html)#表示在整个网页中过滤出所有图片的地址,放在imglist中
return imglist
#下载图片
def getImg(html,imgSavepath):
imglist = getImgList(html)
i = 0
for imgurl in imglist:
#print(imgurl)
try:
#使用urllib.request
#urllib.request.urlretrieve(imgurl,'{}{}.jpg'.format(imgSavepath,i)) #打开imglist中保存的图片网址,并下载图片保存在本地,format格式化字符串
# 使用requests
imgres = requests.get(imgurl)
img = imgres.content
with open(imgSavepath+str(i)+'.jpg', 'wb') as f:
f.write(img)
f.close()
#end requests
i = i + 1
except HTTPError as e: # urllib.request 方式找不到图片会报HTTPError 404, requests方式不会
print (e.reason)
return i
def main():
print ("start")
html = getHtml("http://www.bianzhile.com/p/20222") #获取该网址网页详细信息,得到的html就是网页的源代码
#将图片保存到D:\\test\\文件夹中,如果没有test文件夹则创建
imgSavePath = 'D:\\test\\'
if not os.path.isdir(imgSavePath):
os.makedirs(imgSavePath)
else:
print (imgSavePath)
picNum = getImg(html,imgSavePath) #从网页源代码中分析并下载保存图片
print ("save %d pictureses"%picNum)
if __name__ == "__main__":
main()