0112编程-职友集数据分析-爬虫

点击这里进入人工智能嘚吧嘚目录,观看全部文章


职友集是一家汇聚全网众多招聘信息的网站,并具有很多职位趋势分析。

这篇文章介绍如何快速爬取职友集网站的信息。

爬虫思路分析

首先确认需要爬取的职位信息的地址格式是https://www.jobui.com/jobs?jobKw={key_word}&cityKw={city_name}

然后确认我们所需要的职位详细页面链接格式是https://www.jobui.com/job/{job_id}/

我们只需要从职位列表页面获取每个职位对应的职位详细页面链接,即可对获取到职位详细信息。而每个职位的链接其实就是职位列表页每个职位标题的href属性。

所以我们把爬虫分为三步(以10页为例):

  1. 爬取职位列表页面的链接,每页17个,分10页可以爬取170个链接,最好存储到文件以备下一步使用。
  2. 从存储的链接文件中一次读取全部170个链接,然后逐个链接爬取,并且将网页源码分别存储为170个文件备用。
  3. 从存储的170个职位文件中读取数据,这些数据都是html源码,可以用BeautifulSoup解析。

爬取职位详情的全部链接

习惯性的在浏览器登录注册,从控制台Networks中找到/jobs?...请求并copy request headers获得请求头字符串,并利用str2dict函数转为dict对象备用。

header_str='''
GET /jobs?jobKw=python&cityKw=%E5%85%A8%E5%9B%BD&n=2&taget=subscribe HTTP/1.1
Host: www.jobui.com
Connection: keep-alive
Cache-Control: max-age=0
Upgrade-Insecure-Requests: 1
...
'''
#字符串转dict的方法
def str2dict(s,s1=';',s2='='):
    li=s.split(s1)
    res={}
    for kv in li:
        li2=kv.split(s2)
        if len(li2)>1:
            res[li2[0]]=li2[1]
    return res
headers=str2dict(header_str,'\n',': ')
headers

这里的headers看起来是这样的一个dict:


下面是获取链接link的函数

import requests
from bs4 import BeautifulSoup
urlstr = 'https://www.jobui.com/jobs?jobKw={kw}&cityKw=%E5%85%A8%E5%9B%BD&n={n}'

#n,页码,第几页;kw,搜索词,如'python'
def getLinks(n,kw):
    links = []
    url = urlstr.format(n=n,kw=kw)
    res = requests.get(url, headers=headers)
    soup = BeautifulSoup(res.text)    
    jobs = soup.find('ul', {'data-jobidlist': True})
    jobs=jobs.find_all('li')
    for job in jobs:
        atag = job.find('h3', {'data-positionid': True}).parent
        links.append('https://www.jobui.com' + atag['href']) #获取到链接href属性
    return links

先从大数据工程师.json中读出已有的全部链接,放入all_links,然后再启动爬虫爬取新的链接也放入all_links,并且去除重复,重新存储大数据工程师.json覆盖,实现新增链接。

#获取detail页面链接
import json
import os
import time

kw = '大数据工程师'

all_links = []
linkfdr = './jobui/links/'
file = linkfdr + '{}.json'.format(kw)
if not os.path.exists(linkfdr): #如果文件夹不存在就创建它
    os.makedirs(linkfdr)

#先读取已有的,避免重复
if os.path.isfile(file):#检查文件存在
    with open(file, 'r') as f:
        all_links = json.loads(f.read())

#增加新的链接
for i in range(0, 10):
    print('Crawling LINK:', i)
    try:
        all_links = all_links + getLinks(i, kw)
        time.sleep(1)
    except:
        print('Get link failed.')

with open(file, 'w') as f:
    all_links = list(set(all_links))  #去重复
    f.write(json.dumps(all_links))
print('LINK OK!')

这个代码将在当前文件夹的/jobui/link/文件夹中创建一个以kw命名的.json文件,比如大数据工程师.json,其中包含了10个页面共170个职位链接地址,看起来如下:

爬取并存储每个职位详情源码

根据链接读取文件并存储的函数。

#link,职位页面的地址,http://...完整地址;keyw,关键词,将作为存放网页源码文件的文件夹名称。
def getHtml(link, keyw):
    res = requests.get(link, headers=headers)
    fdr = './jobui/{}/'.format(keyw)
    if not os.path.exists(fdr):
        os.makedirs(fdr) #如果不存在文件夹则创建它
    fname = link.split('/')[-2:-1][0] #从https://.../job/194131276/中获得194131276
    with open(fdr + fname + '.html', 'w',encoding='utf-8') as f:
        f.write(res.text)

大数据工程师.json中读取全部link,为每个link启动getHtml爬取数据并存储页面源码。

#读取link文件中所有链接的html
read_links = []
keyfdr = kw
link_file = linkfdr + '{}.json'.format(keyfdr)
with open(link_file, 'r') as f:
    links = json.loads(f.read())
    for link in links:
        print('Getting HTML:', link)
        try:
            getHtml(link, keyfdr)
        except:
            print('--failed')
        time.sleep(1)
print('HTML OK!')

最终生成的文件目录大致是:


注意参考0112编程-windows和mac的python文件读写编码


点击这里进入人工智能DBD嘚吧嘚目录,观看全部文章


每个人的智能新时代

如果您发现文章错误,请不吝留言指正;
如果您觉得有用,请点喜欢;
如果您觉得很有用,欢迎转载~


END

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,125评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,293评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,054评论 0 351
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,077评论 1 291
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,096评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,062评论 1 295
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,988评论 3 417
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,817评论 0 273
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,266评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,486评论 2 331
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,646评论 1 347
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,375评论 5 342
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,974评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,621评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,796评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,642评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,538评论 2 352