Spider与OpenPyXL的结合

写作不易,转载请注明出处,且用且珍惜。

1.OpenPyXL基础操作

  • 引入Workbook这个类,然后调用
from openpyxl import Workbook
wb = Workbook()
  • 通过openpyxl.workbook.Workbook.active()调用得到正在运行的工作表
ws = wb.active

该函数调用工作表的索引(_active_sheet_index),默认是0。除非你修改了这个值,否则你使用该函数一直是在对第一张工作表进行操作。

  • 使用openpyxl.workbook.Workbook.create_sheet()新建一张表
ws1 = wb.create_sheet() #默认插在工作簿末尾
# or
ws2 = wb.create_sheet(0) # 插入在工作簿的第一个位置
  • 在创建工作表的时候系统自动命名。他们按照序列依次命名 (Sheet, Sheet1, Sheet2, ...)。你可以通过调用下面的属性修改工作表的名称:
ws.title = "New Title"
  • 标签栏的背景色默认为白色。你可以通过提供一个RRGGBB颜色码改变标签栏的字体颜色
ws.sheet_properties.tabColor = "1072BA"
  • 一旦你获取工作表的名字,你可以通过workbook的key或者 openpyxl.workbook.Workbook.get_sheet_by_name() 方法得到该工作表
ws3 = wb["New Title"]
ws4 = wb.get_sheet_by_name("New Title")
ws is ws3 is ws4
True
  • 你可以通过openpyxl.workbook.Workbook.get_sheet_names() 方法得到工作簿的所有工作表。
print(wb.get_sheet_names())
['Sheet2', 'New Title', 'Sheet1']
  • 你也可以循环得到所有的工作表
for sheet in wb:
       print(sheet.title)

操作数据

  • 使用一个单元格

    我们开始修改工作表中单元格的内容

    单元格可以直接根据他们的索引直接获得

>>> c = ws['A4']

通过上述的语句,将返回在A4处的单元格,如果不存在将在A4新建一个。 单元格的值也可以直接赋值

>>> ws['A4'] = 4

还提供 openpyxl.worksheet.Worksheet.cell() 方法获取单元格

>>> c = ws.cell('A4')

也可以根据行列值获取单元格

>>> d = ws.cell(row = 4, column = 2)

注意:当一个工作表被创建是,其中不包含单元格。只有当单元格被获取是才被创建。这种方式我们不会创建我们从不会使用的单元格,从而减少了内存消耗。
警告:由于上述特性,你如果遍历了单元格而非想要使用它们也将会在内存当中创建。比如下面:

>>> for i in range(1,101):
              for j in range(1,101):
                   ws.cell(row = i, column = j)

上述代码将会在内存中创建100*100个单元格。
当然,这里也有方法来清理这些不想要的单元格,在后续我们将会介绍。

使用多个单元格

使用切片获取多个单元格

>>> cell_range = ws['A1':'C2']

使用openpyxl.worksheet.Worksheet.iter_rows() 方法获得多个单元格

>>> tuple(ws.iter_rows('A1:C2'))
((<Cell Sheet1.A1>, <Cell Sheet1.B1>, <Cell Sheet1.C1>),
(<Cell Sheet1.A2>, <Cell Sheet1.B2>, <Cell Sheet1.C2>))
>>> for row in ws.iter_rows('A1:C2'):
            for cell in row:
                  print cell
<Cell Sheet1.A1>
<Cell Sheet1.B1>
<Cell Sheet1.C1>
<Cell Sheet1.A2>
<Cell Sheet1.B2>
<Cell Sheet1.C2>

如果你需要迭代文件中所有的行或者列,你可以使用
openpyxl.worksheet.Worksheet.rows()

>>> ws = wb.active
>>> ws['C9'] = 'hello world'
>>> ws.rows
((<Cell Sheet.A1>, <Cell Sheet.B1>, <Cell Sheet.C1>),
(<Cell Sheet.A2>, <Cell Sheet.B2>, <Cell Sheet.C2>),
(<Cell Sheet.A3>, <Cell Sheet.B3>, <Cell Sheet.C3>),
(<Cell Sheet.A4>, <Cell Sheet.B4>, <Cell Sheet.C4>),
(<Cell Sheet.A5>, <Cell Sheet.B5>, <Cell Sheet.C5>),
(<Cell Sheet.A6>, <Cell Sheet.B6>, <Cell Sheet.C6>),
(<Cell Sheet.A7>, <Cell Sheet.B7>, <Cell Sheet.C7>),
(<Cell Sheet.A8>, <Cell Sheet.B8>, <Cell Sheet.C8>),
(<Cell Sheet.A9>, <Cell Sheet.B9>, <Cell Sheet.C9>))

或者使用openpyxl.worksheet.Worksheet.columns()方法

>>> ws.columns
((<Cell Sheet.A1>,
<Cell Sheet.A2>,
<Cell Sheet.A3>,
<Cell Sheet.A4>,
<Cell Sheet.A5>,
<Cell Sheet.A6>,
...
<Cell Sheet.B7>,
<Cell Sheet.B8>,
<Cell Sheet.B9>),
(<Cell Sheet.C1>,
<Cell Sheet.C2>,
<Cell Sheet.C3>,
<Cell Sheet.C4>,
<Cell Sheet.C5>,
<Cell Sheet.C6>,
<Cell Sheet.C7>,
<Cell Sheet.C8>,
<Cell Sheet.C9>))
  • 数据存储

一旦我们有一个openpyxl.cell.Cell,我们可以直接为该单元格赋值

>>> c.value = 'hello, world'
>>> print(c.value)
'hello, world'
>>> d.value = 3.14
>>> print(d.value)
3.14
你也可以使用Python中的其他类型和格式
>>> wb = Workbook(guess_types=True)
>>> c.value = '12%'
>>> print(c.value)
0.12
>>> import datetime
>>> d.value = datetime.datetime.now()
>>> print d.value
datetime.datetime(2010, 9, 10, 22, 25, 18)
>>> c.value = '31.50'
>>> print(c.value)
31.5

保存到文件

保存工作簿最简单最安全的方式是使用openpyxl.workbook.Workbook的openpyxl.workbook.Workbook.save() 方法

>>> wb = Workbook()
>>> wb.save('balances.xlsx')

!特别警告:这个操作将会在没有认识提示的情况下用现在写的内容,覆盖掉原文件中的所有内容
你也可以 as_template=True,将文件保存称为一个模板

>>> wb = load_workbook('document.xlsx')
>>> wb.save('document_template.xltx', as_template=True)

如果as_template=False(默认),则将文件或模板保存为文件

>>> wb = load_workbook('document_template.xltx')
>>> wb.save('document.xlsx', as_template=False)
>>> wb = load_workbook('document.xlsx')
>>> wb.save('new_document.xlsx', as_template=False)

警告:在保存文件到文件模板中的时候你应该监控数据的属性和文件扩展名,反之亦然;否则,你得到的工作簿可能无法打开。
比如下面的:

>>> wb = load_workbook('document.xlsx')
>>> # Need to save with the extension *.xlsx
>>> wb.save('new_document.xlsm')
>>> # MS Excel can't open the document
>>>
>>> # or
>>>
>>> # Need specify attribute keep_vba=True
>>> wb = load_workbook('document.xlsm')
>>> wb.save('new_document.xlsm')
>>> # MS Excel can't open the document
>>>
>>> # or
>>>
>>> wb = load_workbook('document.xltm', keep_vba=True)
>>> # If us need template document, then we need specify extension as *.xltm.
>>> # If us need document, then we need specify attribute as_template=False.
>>> wb.save('new_document.xlsm', as_template=True)
>>> # MS Excel can't open the document
  • 从文件中导入

和写入文件的方式相同,你可以引入openpyxl.load_workbook()来打开一个已经存在的工作簿

>>> from openpyxl import load_workbook
>>> wb2 = load_workbook('test.xlsx')
>>> print wb2.get_sheet_names()
['Sheet2', 'New Title', 'Sheet1']

2.爬虫与OpenPyXL的结合(爬取前程无忧网站招聘数据,存储Excel表格中)

这里采用的python的bs4库,代码基于python2.7

分析

第一步,分析网页结构,找到我们需要数据的块标签
从我们找到的块中筛选我们想要的数据
分析网页url,通过拼接url,得到更多的数据

代码如下:

#-*- coding:utf-8 -*-
import requests,re

#引入解码器
import codecs
from bs4 import BeautifulSoup

#从OpenPyXl引入Workbook这个类
from openpyxl import Workbook

#调用
Excel = Workbook()
fileName = '51job.xlsx'

#调用得到正在运行的工作表
excel = Excel.active

#工作表的名字
excel.title = '51job'

#定义爬虫的方法
def spider(job,page):

    my_headers = {
        'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/50.0.2661.102 UBrowser/6.1.3397.16 Safari/537.36'
    }
    workName = []
    company = []
    address = []
    pay = []
    print page,type(page)
    page = int(page)+1


    try:
        for i in range(1,page):
            url = 'http://search.51job.com/list/020000,000000,0000,00,9,99,'+job+',2,' + str(i) + '.html'
            #获取url地址内容,伪造请求头

            data = requests.get(url,headers=my_headers).content
            print('得到网页html数据')

            #设置html解析器
            soup = BeautifulSoup(data,'html.parser')
            soup1 = soup.find('div',class_='dw_table')
            content = soup1.find_all('div','el')

            for i in content[1:]:
                # print(i)
                workna = i.find('p', attrs={'class': 't1'})
                work_name = workna.find('span').get_text().strip().replace('/n/r', '')  # 职位名字
                compa = i.find('span', attrs={'class': 't2'}).get_text()  # 公司名
                addre = i.find('span', attrs={'class': 't3'}).get_text()  # 工作地点
                payy = i.find('span', attrs={'class': 't4'}).get_text()  # 薪资
                print(work_name, compa, addre, payy)

                if payy:
                    pay.append(payy)
                else:
                    pay.append('面议')

                workName.append(work_name)
                company.append(compa)
                address.append(addre)

        for (w,c,a,p) in zip(workName,company,address,pay):
            col_A = 'A%s'%(workName.index(w) + 1)
            col_B = 'B%s'%(workName.index(w) + 1)
            col_C = 'C%s'%(workName.index(w) + 1)
            col_D = 'D%s'%(workName.index(w) + 1)
            excel[col_A] = w
            excel[col_B] = c
            excel[col_C] = a
            excel[col_D] = p
            #保存到excel文件
            print('开始保存数据')
            Excel.save(filename=fileName)
    except Exception as e:
        print(e)
if __name__ == '__main__':
    job = raw_input('请输入你要爬取的岗位名称:')
    page = raw_input('请输入你要爬取的页码数量:')
    spider(job,page)

运行程序,拿到数据

可以看到数据已经成功保存到Excel表格中

使用同样的分析方法爬取智联招聘岗位信息

代码如下:

#-*- coding:utf-8 -*-
import requests,re
import codecs   #引入解码器
import random

from bs4 import BeautifulSoup
from openpyxl import Workbook  #从openpyxl引入Workbook
from fake_useragent import UserAgent  #引入userAgent

Excel = Workbook() #调用
fileName = 'zl.xlsx'

excel = Excel.active  #调用运行的工作表
excel.title = ('zj')


#定义爬虫的方法
def spider(job,page,add):
    ua = UserAgent()
    my_headers = {
        'user-agent':ua.random
    }

    name = []     #定义岗位名称
    percent = []  #定义反馈率
    company = []  #定义公司名称
    salary = []   #定义职位月薪
    position = [] #定义工作地点
    page = int(page)+1
    try:
        for i in range(1,page):
            url = 'http://sou.zhaopin.com/jobs/searchresult.ashx?jl='+ add +'&kw=' + job + '&sm=0&p=' + str(i)
            # data = {
            #     'jl':'上海',
            #     'kw':job,
            #     'p':i
            # }
            data = requests.get(url,headers=my_headers).content

            #设置htmL解析器
            soup = BeautifulSoup(data,'html.parser')
            soup1 = soup.find('div',class_='newlist_list_content')
            content = soup1.find_all('table',class_="newlist")

            for i in content[1:]:
                print i
                na = i.find('td',attrs={'class':'zwmc'}).find('a').get_text().strip().replace('/n/r', '')#岗位名
                perc = i.find('td',attrs={'class':'fk_lv'}).find('span').get_text()  #反馈率
                comp = i.find('td',attrs={'class':'gsmc'}).find('a').get_text()   #公司名
                sala = i.find('td',attrs={'class':'zwyx'}).get_text()  #职位月薪
                positi = i.find('td',attrs={'class':'gzdd'}).get_text()  #工作地点

                print na,perc,comp,sala,positi

                if perc:
                    percent.append(perc)
                else:
                    percent.append('空')

                name.append(na)
                company.append(comp)
                salary.append(sala)
                position.append(positi)
        for (n, p, c, s, p) in zip(name, percent, company, salary, position):
            col_A = 'A%s' % (name.index(n) + 1)
            col_B = 'B%s' % (name.index(n) + 1)
            col_C = 'C%s' % (name.index(n) + 1)
            col_D = 'D%s' % (name.index(n) + 1)
            col_E = 'E%s' % (name.index(n) + 1)
            excel[col_A] = n
            excel[col_B] = p
            excel[col_C] = c
            excel[col_D] = s
            excel[col_E] = p

            # 保存到excel文件
            print('开始保存数据')
            Excel.save(filename=fileName)
    except Exception as e:
        print(e)

if __name__ == '__main__':
    print '◆我是一只小爬虫◆'
    job = raw_input('请输入您想要的到的岗位名称:')
    page = raw_input('请输入您想要得到的页码数量:')
    add = raw_input('请输入您想要哪个城市的招聘信息:')
    spider(job,page,add)

Excel数据展示
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,547评论 6 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,399评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,428评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,599评论 1 274
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,612评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,577评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,941评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,603评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,852评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,605评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,693评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,375评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,955评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,936评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,172评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 43,970评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,414评论 2 342

推荐阅读更多精彩内容

  • 使用首先需要了解他的工作原理 1.POI结构与常用类 (1)创建Workbook和Sheet (2)创建单元格 (...
    长城ol阅读 8,397评论 2 25
  • 最近在网上爬取奥运项目资料,并写入Excel中。在写到Excel中是用到了OpenPyXL,翻译了一部分自己用到的...
    LeeLom阅读 197,619评论 7 78
  • 本例为设置密码窗口 (1) If Application.InputBox(“请输入密码:”) = 1234 Th...
    浮浮尘尘阅读 13,588评论 1 20
  • 1.1 VBA是什么 直到90年代早期,使应用程序自动化还是充满挑战性的领域.对每个需要自动化的应用程序,人们不得...
    浮浮尘尘阅读 21,699评论 6 49
  • 临时计划改变,又回到了现在的住的地方,也就今天和明天两天,我呢最近一直在纠结一个问题,就是想重新拿起笔,开始自己的...
    舟舟style阅读 153评论 0 0