Python利用Scrapy爬取智联招聘和前程无忧的招聘数据

爬虫起因

  前面两个星期,利用周末的时间尝试和了解了一下Python爬虫,紧接着就开始用Scrapy框架做了一些小的爬虫,不过,由于最近一段时间的迷茫,和处于对职业生涯的规划。以及对市场需求的分析,我通过网上查阅资料。对比较大的前程无忧和智联招聘进行了数据爬取。
  这里我们以智联招聘为例做一些讲解。

前期准备

首先我在我自己做爬虫之前就已经规划好了我需要爬取什么数据,并且创建了数据库表,并提前对网页内容有大概的了解。其次处于对数据分析的考虑,我对我比较关系的字段例如,经验,学历,薪资等都要求尽量能够爬取到。最后,通过书本以及网络资源等各种工具了解Scrapy,正则表达式,Xpath,BeautifulSoup等各种知识,为后面做好爬虫打下了基础。

实战

在本次小练习中,我们主要会用到,piplines,items,和我们自己新建的Spider类,
items是针对实体的,与数据库表中最好具有对应关系,代码如下:

import scrapy


class ZhaopinItem(scrapy.Item):
    jobname = scrapy.Field()
    salary = scrapy.Field()
    experience = scrapy.Field()
    address = scrapy.Field()
    comany_name = scrapy.Field()
    head_count = scrapy.Field()
    education_require = scrapy.Field()
    comany_size = scrapy.Field()
    job_require =scrapy.Field()
    release_date = scrapy.Field()

piplines在本例中主要是对items进行数据操作的。代码如下:

import pymysql
from zhaopin import settings

class ZhaopinPipeline(object):
    def __init__(self, ):
        self.conn = pymysql.connect(
            host=settings.MYSQL_HOST,
            db=settings.MYSQL_DBNAME,
            user=settings.MYSQL_USER,
            passwd=settings.MYSQL_PASSWORD,
            charset='utf8',  # 编码要加上,否则可能出现中文乱码问题
            use_unicode=False)
        self.cursor = self.conn.cursor()

    def process_item(self, item, spider):
        self.insertData(item)
        return item

    def insertData(self, item):
        sql = "insert into shenzhen(jobname,salary,company_name,job_require,address,experience,company_size,head_count,education_require,release_date) VALUES(%s,%s,%s,%s,%s,%s,%s,%s,%s,%s);"
        params = (item['jobname'],item['salary'],item['comany_name'],item['job_require'],item['address'],item['experience'],item['comany_size'],item['head_count'],item['education_require'],item['release_date'])
        self.cursor.execute(sql, params)
        self.conn.commit()

最后最为主要的是,数据的获取以及解析,代码如下。

from zhaopin.items import ZhaopinItem
from scrapy import Spider,Request
from bs4 import BeautifulSoup
import  re
class ZhaopinSpider(Spider):
    name = 'zhaopin'

    allowed_domains = ['www.zhaopin.com']
    start_urls = ['http://www.zhaopin.com/']
    #start_urls = ['http://sou.zhaopin.com/jobs/searchresult.ashx?jl=%E4%B8%8A%E6%B5%B7&kw=java%E5%B7%A5%E7%A8%8B%E5%B8%88&sm=0&sg=720f662a0e894031b9b072246ac2f919&p=1']

    def start_requests(self):
        #for num in (1,60):
        url='http://sou.zhaopin.com/jobs/searchresult.ashx?jl=%E6%B7%B1%E5%9C%B3&kw=java%E5%B7%A5%E7%A8%8B%E5%B8%88&sm=0&isadv=0&sg=cc9fe709f8cc4139afe2ad0808eb7983&p=42'
            #.format(num)
        #yield Request(url,callback=self.parse)
        yield Request(url,callback=self.parse)

    def parse(self, response):
        #self.log('page url is ' + response.url)
        wbdata = response.text
        soup = BeautifulSoup(wbdata, 'lxml')
        job_name = soup.select("table.newlist > tr > td.zwmc > div > a:nth-of-type(1)")
        salary = soup.select("table.newlist > tr > td.zwyx")
        #company_name = soup.select("table.newlist > tr > td.gsmc > div > a:nth-of-type(2)")
        times = soup.select("table.newlist > tr > td.gxsj > span")
        for name,salary,time in zip(job_name,salary,times):
            item = ZhaopinItem()
            item["jobname"] = name.get_text()
            url= name.get('href')
            #print("职位"+name.get_text()+"工资"+salary.get_text()+"发布日期"+time.get_text()+"连接"+url)
            item["salary"] = salary.get_text()
            item["release_date"] = time.get_text()
            # item["comany_name"] = company     _name.get_text()
            #yield item

            yield Request(url=url, meta={"item": item}, callback=self.parse_moive,dont_filter=True)



    def parse_moive(self, response):
        #item = ZhaopinItem()
        jobdata = response.body
        require_data = response.xpath(
            '//body/div[@class="terminalpage clearfix"]/div[@class="terminalpage-left"]/div[@class="terminalpage-main clearfix"]/div[@class="tab-cont-box"]/div[1]/p').extract()
        require_data_middle = ''
        for i in require_data:
            i_middle = re.sub(r'<.*?>', r'', i, re.S)
            require_data_middle = require_data_middle + re.sub(r'\s*', r'', i_middle, re.S)
        jobsoup = BeautifulSoup(jobdata, 'lxml')
        item = response.meta['item']
        item['job_require'] = require_data_middle
        item['experience'] = jobsoup.select('div.terminalpage-left strong')[4].text.strip()
        item['comany_name']  = jobsoup.select('div.fixed-inner-box h2')[0].text
        item['comany_size']  = jobsoup.select('ul.terminal-ul.clearfix li strong')[8].text.strip()
        item['head_count']  = jobsoup.select('div.terminalpage-left strong')[6].text.strip()
        item['address'] = jobsoup.select('ul.terminal-ul.clearfix li strong')[11].text.strip()
        item['education_require'] = jobsoup.select('div.terminalpage-left strong')[5].text.strip()
        yield item

当然最后还需要对一些基础的配置在setting文件中进行设置,如下

ROBOTSTXT_OBEY = False

ITEM_PIPELINES = {
    'zhaopin.pipelines.ZhaopinPipeline':300
}

MYSQL_HOST = '127.0.0.1'
MYSQL_DBNAME = 'zhaopin'     # 数据库名
MYSQL_USER = 'root'         # 数据库用户
MYSQL_PASSWORD = '123456'   # 数据库密码

最后,运行成功会获得如下结果:


这里写图片描述

后记

后面如果我开发了数据分析相关的技能包,可能还会对这里的数据进行分析,到时候会将分析的一些有趣的东西分析出来,

代码请戳这里

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 214,904评论 6 497
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,581评论 3 389
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 160,527评论 0 350
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,463评论 1 288
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,546评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,572评论 1 293
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,582评论 3 414
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,330评论 0 270
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,776评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,087评论 2 330
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,257评论 1 344
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,923评论 5 338
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,571评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,192评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,436评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,145评论 2 366
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,127评论 2 352

推荐阅读更多精彩内容