碧玉爬虫程序

'''这是打开了一个有关碧玉盆栽的介绍的网站,里面的图片分为碧玉图片和广告图片,根据性质的不同,

将他们下载下来,自动保存到两个不同的文件夹里'''

from urllib.request import urlopen

from urllib.request import urlretrieve

from bs4 import BeautifulSoup

import re

import os


html=urlopen("http://www.pchouse.com.cn/baike/shenghuo/2745/")

bsObj=BeautifulSoup(html,"html.parser")

#获取网站中所有碧玉的图片

Biyus=bsObj.findAll("p",{"style":re.compile("^text-align")})

for i,x in enumerate(Biyus):

     print(x.find("img").attrs["src"])

     directory=os.path.dirname("/D:/image/mqq"+str[i]+".jpg")

     if not os.path.exists(directory):

            os.makedirs(directory)

    urlretrieve(x.find("img").attrs["src"],directory)

#获取所有广告类图片

Ads=bsObj.findAll("img",{"width":{"120","310"}})

for i,ad in enumerate(Ads):

     print(ad.attrs["src"])

    directory=os.path.dirname("Ads/mqq"+str([i])+".jpg")

    if not os.path.exists(directory):

         os.makedirs(directory)

         urlretrieve(ad.attrs["src"],directory)

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容