python数据爬虫——如何爬取二级页面(三)

前面两篇文章讲了单页面如何爬取,那么我们来试试如何爬取二级页面。

在爬取页面的时候,需要有个良好的习惯,提前对爬取的页面和爬取思路进行一个分析。

目的:爬取携程无忧数据分析师的二级页面,获取每个岗位的要求。

页面的构成:二级页面是点击一级页面跳转的。

解决思路:

1、在一级页面中获取二级页面的链接

2、在二级二面中获取想要的数据。

这里我们会用到BeautifulSoup。

思路有了,那我们开始吧!

1、获取二级页面的链接,href路径获取,浏览器点开检查。找到相对应的href位置:

import requests

from bs4 import BeautifulSoup

from lxml import etree

import time

import csv

headers={

  'user-agent':'Mozilla/5.0'

}#模拟浏览器进行爬取

url = 'https://search.51job.com/list/000000%252C00,000000,0000,00,9,99,%25E6%2595%25B0%25E6%258D%25AE%25E5%2588%2586%25E6%259E%2590%25E5%25B8%2588,2,'

#网页内容格式调整

i = 0

for n in range(1,10):

    r = url+str(n)+str('.html')

    html = requests.get(r,headers=headers)

    html.raise_for_status()

    html.encoding = html.apparent_encoding#内容获取的内容进行转码,以防出现乱码的情况。   

    soup = BeautifulSoup(html.text,'html.parser')

    liebiao = soup.find_all('p','t1')#获取第一页href相关的位置

    #print(liebiao)

    for item in liebiao:

        shuju = item.find('span')

        link = shuju.find('a')['href']提取出href.


        id = i+1  #写了一个自增长。方便自己查看当前数据是第几条。

        i = id       

        print(id,link)

        time.sleep(1)


好了,代码写好了,让我们来试试结果吧!


这里截取了部分数据,大家可以尝试一下,要是对路径获取不清楚的地方,可以去看一下我前面两篇文章。

2.获得了二级页面的连接,我们来通过这些链接抓取二级页面的数据吧!

先确认一下,我们要抓取哪些信息:


我们再把xpath获取内容的方法再回顾一遍,这里也可以用前面使用的新方法,全看个人喜好恩。

我们来看看获取二级页面内容的代码:

  date_html=requests.get(link,headers=headers).text

    f = etree.HTML(date_html)

    Date = f.xpath('/html/body/div[3]/div[2]/div[2]/div/div[1]/h1/@title')

    print(Date)

    name = f.xpath('/html/body/div[3]/div[2]/div[2]/div/div[1]/p[1]/a[1]/@title')

    print(name)

    money = f.xpath('/html/body/div[3]/div[2]/div[2]/div/div[1]/strong/text()')

    print(money)

    content = f.xpath('/html/body/div[3]/div[2]/div[3]/div[1]/div/p/text()')

    print(content)

    business = f.xpath('/html/body/div[3]/div[2]/div[4]/div[1]/div[2]/p[1]/@title')

    print(business)

    address = f.xpath('/html/body/div[3]/div[2]/div[2]/div/div[1]/p[2]/text()[1]')

    print(address)

    profession = f.xpath('/html/body/div[3]/div[2]/div[4]/div[1]/div[2]')

    for liebiao2 in  profession:

        profession2 = liebiao2.xpath('./p[3]/a/text()')

        print(profession2)


数据路径有相关的规律,大家可以调整一下,参考我的二篇文章。

完整代码结合起来看看:

import requests

from bs4 import BeautifulSoup

from lxml import etree

import time

import csv

fp = open('C:/Users/MIiNA/Desktop/Date.csv','wt',newline='',encoding='utf_8_sig')

#fp = open('C:/Users/JX/Desktop/Date.csv','wt',newline='',encoding='utf_8_sig')

writer = csv.writer(fp)

headers={

  'user-agent':'Mozilla/5.0'

}

url = 'https://search.51job.com/list/000000%252C00,000000,0000,00,9,99,%25E6%2595%25B0%25E6%258D%25AE%25E5%2588%2586%25E6%259E%2590%25E5%25B8%2588,2,'

#网页内容格式调整

i = 0

for n in range(1,10):

    r = url+str(n)+str('.html')

    html = requests.get(r,headers=headers)

    html.raise_for_status()

    html.encoding = html.apparent_encoding   


    soup = BeautifulSoup(html.text,'html.parser')

    liebiao = soup.find_all('p','t1')

    for item in liebiao:

        shuju = item.find('span')

        link = shuju.find('a')['href']


        id = i+1

        i = id       

#        print(id,link)

        print(id)

        time.sleep(1)


        date_html=requests.get(link,headers=headers).text 

        f = etree.HTML(date_html)

        Date = f.xpath('/html/body/div[3]/div[2]/div[2]/div/div[1]/h1/@title')

        print(Date)

        name = f.xpath('/html/body/div[3]/div[2]/div[2]/div/div[1]/p[1]/a[1]/@title')

        print(name)

        money = f.xpath('/html/body/div[3]/div[2]/div[2]/div/div[1]/strong/text()')

        print(money)

        content = f.xpath('/html/body/div[3]/div[2]/div[3]/div[1]/div/p/text()')

        print(content)

        business = f.xpath('/html/body/div[3]/div[2]/div[4]/div[1]/div[2]/p[1]/@title')

        print(business)

        address = f.xpath('/html/body/div[3]/div[2]/div[2]/div/div[1]/p[2]/text()[1]')

        print(address)

        profession = f.xpath('/html/body/div[3]/div[2]/div[4]/div[1]/div[2]')

        for liebiao2 in  profession:

            profession2 = liebiao2.xpath('./p[3]/a/text()')

            print(profession2)

        writer.writerow((id,Date,name,money,content,business,profession2,address))

        time.sleep(1)

fp.close()


上面代码把保存方式也加上了。看看结果如何!


有些数据为空没获取到,排查原因是个别二级页面网页结构不一样导致,不影响整体使用。

欢迎大家持续关注,后期为大家带来更多分享。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,372评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,368评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,415评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,157评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,171评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,125评论 1 297
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,028评论 3 417
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,887评论 0 274
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,310评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,533评论 2 332
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,690评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,411评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,004评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,659评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,812评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,693评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,577评论 2 353

推荐阅读更多精彩内容