2019-08-30 用简书前辈的代码进行51job数据的爬取

总结:照搬照抄式的投机取巧不可行,还是得自己一步一步慢慢看,跑一跑代码,不对的地方百度找办法解决,比如今天明白了爬虫时要设置User-Agent,好假装浏览器去访问要爬取的网页。 


第一段来自:前程无忧爬虫实战(通过输入关键字爬取任意职位并自动保存为.csv文本) - 简书

```

import csv

import re

import requests

from lxmlimport etree

headers = {

"cache-control":"no-cache",

    "postman-token":"72a56deb-825e-3ac3-dd61-4f77c4cbb4d8",

    "User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.67 Safari/537.36",

}

def get_url(key1):

try:

i=0

        url ="https://search.51job.com/list/000000,000000,0000,00,9,99,{},2,1.html"

        response = requests.get(url.format(key1), headers=headers)

html = etree.HTML(response.content.decode('gbk'))

max_page =int("".join(re.findall('(\d+)',"".join(html.xpath("//span[@class='td']/text()")))))

while True:

i+=1

            url ="https://search.51job.com/list/000000,000000,0000,00,9,99,{},2,{}.html"

            url = url.format(key1,i)

print("*"*100)

print("正在爬取第%d页" % i)

print("*"*100)

yield url

#print("正在爬取%d页"%i)

            if max_page == i:

break

    except:

print("获取不到链接,已处理")

def pase_page(key1):

try:

for iin get_url(key1):

url = i

#print(url)

            response = requests.get(url,headers=headers)

html = etree.HTML(response.content.decode('gbk'))# 解码成gbk后输出,请求的是gbk,但是python默认的是

            #输出的是utf-8,所以把utf-8解码成gbk就可以输出了,这样请求和输出就一样了,decode 相当于输出

            #编码的输入和输出要一致。

            lists = html.xpath("//div[@id='resultList']//div[@class='el']")

for listin lists:

item = {}

item["公司"] ="".join(list.xpath("./span[@class='t2']/a/text()")).replace('\r\n', '').replace(' ', '')

item["职位"] ="".join(list.xpath("./p/span/a/text()")).replace('\r\n', '').replace(' ', '')

item["工作地点"] ="".join(list.xpath("./span[@class='t3']/text()")).replace('\r\n', '').replace(' ', '')

item["薪资"] ="".join(list.xpath("./span[@class='t4']/text()")).replace('\r\n', '').replace(' ', '')

item["发布时间"] ="".join(list.xpath("./span[@class='t5']/text()")).replace('\r\n', '').replace(' ', '')

yield item

except:

print("返回数据异常,已处理")

def save_excel(key1):

try:

header = [ '公司','职位', '工作地点', '薪资', '发布时间']

with open(key1+'前程无忧职位信息.csv', 'w', newline='')as f:# w是写入

            # 标头在这里传入,作为第一行数据

            writer = csv.DictWriter(f, header)

writer.writeheader()

for iin pase_page(key1):

item = i

header = ['公司','职位',  '工作地点', '薪资', '发布时间']

with open(key1+'前程无忧职位信息.csv', 'a', newline='')as f:# a是追加

                writer = csv.DictWriter(f, header)

writer.writerow(item)

#print(item)

    except:

print("保存数据异常,已处理")

if __name__ =='__main__':

key1 =input('请输入要爬取的职位:')

save_excel(key1)

```

第二段来自:python入门015---python爬取前程无忧51job的职位信息并存入mysql数据库... - 简书

```

import re# 用来做正则匹配用

import requests# 用来做网络请求用

import xlwt# 用来创建excel文档并写入数据

# 要查询的职位

key ='数据分析师'

# 获取原码

def get_content(page):

headers = {'Host':'search.51job.com',

              'Upgrade-Insecure-Requests':'1',

              'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.132 Safari/537.36'}

url ='http://search.51job.com/list/000000,000000,0000,00,9,99,' + key +',2,' +str(page) +'.html'

    r = requests.get(url, headers, timeout=5)

s = requests.session()

s.keep_alive =False

    r.encoding ='gbk'

    html = r.text

return html

# 匹配规则

def get(html):

reg = re.compile(

r'class="t1 ">.*? <a target="_blank" title="(.*?)".*? <span class="t2"><a target="_blank" title="(.*?)".*?<span class="t3">(.*?)</span>.*?<span class="t4">(.*?)</span>.*? <span class="t5">(.*?)</span>',

        re.S)# 匹配换行符

    items = re.findall(reg, html)

return items

def excel_write(items, index):

# 爬取到的内容写入excel表格

    for itemin items:# 职位信息

        for iin range(0, 5):

# print item[i]

            ws.write(index, i, item[i])# 行,列,数据

        print(index)

index +=1

newTable ="test.xls"  # 表格名称

wb = xlwt.Workbook(encoding='utf-8')# 创建excel文件,声明编码

ws = wb.add_sheet('sheet1')# 创建表格

headData = ['公司','职位', '地址', '薪资', '日期']# 表头部信息

for colnumin range(0, 5):

ws.write(0, colnum, headData[colnum], xlwt.easyxf('font: bold on'))# 行,列

# 查询1-10页的数据,这里的10可以改成你想查询多少页

for eachin range(1, 162):

index = (each -1) *50 +1

    excel_write(get(get_content(each)), index)

wb.save(newTable)# 数据保存到excel表格

```

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,921评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,635评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,393评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,836评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,833评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,685评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,043评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,694评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 42,671评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,670评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,779评论 1 332
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,424评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,027评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,984评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,214评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,108评论 2 351
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,517评论 2 343

推荐阅读更多精彩内容