from bs4 import BeautifulSoup
import requests
import os
headers = {
'Host': 'www.netbian.com',
'Referer': 'https://www.netbian.com/',
'User-Agent': 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.100 Safari/537.36',
}
domain = 'http://www.netbian.com'
category = '/dongman'
baseDir = '/home/opengwe/Desktop/netbian/'
beginPage = 1
endPage = 136
session = requests.session()
session.headers = headers
def getElements(url, selector):
res = session.get(url)
res.encoding = res.apparent_encoding
soup = BeautifulSoup(res.text, 'html.parser')
return soup.select(selector)
def saveImage(url, path):
ret = requests.get(url)
with open(path, "wb") as f:
f.write(ret.content)
def mkDir(path):
if not os.path.exists(path):
os.makedirs(path)
url = "/index.htm"
for i in range(beginPage, endPage):
if (i > 1):
url = "/index_%d.htm" % i
folder = baseDir + 'page%d' % i
mkDir(folder)
for item in getElements(domain + category + url, '.list ul li'):
imghref = item.find('a')['href']
if (imghref[0] == '/'):
bighref = getElements(domain+imghref, '#main .endpage .pic a')[0]['href']
imgs = getElements(domain+bighref, '#main table td img')
if (imgs):
imgsrc = imgs[0]['src']
imgname = imgsrc.split('/')[-1]
saveImage(imgsrc, '%s/%s' % (folder, imgname))
print('complete page%d' % i)
爬取 http://www.netbian.com/
最后编辑于 :
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。
相关阅读更多精彩内容
- 目的现在很多年轻人都喜欢看网络小说,网络小说很容易成瘾,成瘾之后就得大把大把的向正版网站去订阅,你要不想订阅,只能...