第五课、吸星大法批量爬取上市公司财务数据-完成版

回顾:

第一课、我是怎样三天学会Python编程,从一无所知到掌握爬取和讯网上市公司财务报表做分析的 ----介绍如何构建一个Python爬虫环境,Python+MySQL安装;

第二课、开心的爬虫之旅 ----具体分析目标数据表的构成,介绍分析网页的必要工具;

第三课、上市公司财报表格的建立 ----我们把资产负债表、现金流量表、财务比率表和MJ数字力分析都建起来。

第四课 吸星大法获取上市公司财务数据之打磨第一只螺旋桨----解析出目标网页上必要的数据块,用一个新的模块批量吸取数据并写入数据库

经过前三课的规划和准备,同学们熟悉了Python和数据库MySQL和分析网页工具-“开发者工具”,并建立了5个数据表用于存放上市公司利润表、资产负债表、现金流量表、财务比率表和MJ数字力分析表。

第四课开始,我们打磨出了爬取网页数据块并写入数据库的功能,并介绍了PyQuery模块-析取规则数据工具。但是,还不能完成所有数据的批量爬取。这也是我们今天课程要解决的内容。

我们将在第四课的基础上批量的析取上市公司的四张财务报表。

先讲讲批量爬取数据的思路。1、回顾第四课已经打磨好的螺旋桨;2、观察可重复执行代码段;3、抽象出可变内容。4、我们只需要修改变量内容,重复执行的代码段就可以爬取所有的上市公司四张财务报表数据,并保存到数据库里。

一、回顾第四课已经打磨好的螺旋桨

下面是第四课打磨完成的螺旋桨

可以看到上次课,我已经把一部分可变内容抽象出来,设置了变量指向这些内容,如上市公司代码stockid、会计日期accountdate、财报数据网址url、发起请求的头部信息变量data·cookies·headers。

这里要把遗漏的都提取出来。

二、观察可重复执行代码段,抽象出可变内容。

注意看,我们发现了lrb的匹配值__s30和sql的值可以提取出来

原文:sql = "insert into hexun_lrb values(%s)"%__s30

这样改:

ssgscbb='hexun_lrb'

__s30=''

sql = "insert into %s values(%s)" %(ssgscbb,__s30) #抽象出来就像这样,实际上就是字符串格式化。你可以想象引号里的字符串是模版,具体内容需要后面的%(变量1、变量2)提供。这里提供的内容是变量ssgscbb和__s30指向的内容。

三、安装发动机,组装涡轮。

上面虽然完成了抽象化工作,但是我们需要重复使用和调试程序时,并不方便。我们需要把这部分可重复利用的代码块定义为一个函数,类似的地方通过函数调用。准备好实参后,就可以通过调用这个函数,一次性完成爬取和写入数据库的动作。

下面是定义函数的过程和结果:

上图,可以看到程序由单个程序,演化成由函数和主程序两部分组成了。

下面,我们加入循环,不用一个个的手工改变上市公司股票代码,自动把所有上市公司美丽50财报数据全部爬取回来。

经过三次反复的抽象,我们打磨出了上图的代码块。可以自动爬取上证50上市公司的财报数据了。

最后总结一下,1、我们回顾了第四课已经打磨好的螺旋桨;2、通过观察可重复执行代码段;3、抽象出可变内容。4、修改完成变量内容,实现了重复执行代码段就可以爬取所有的上市公司四张财务报表数据,并保存到数据库里的任务。

下面是部分成果展示:

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 1. Java基础部分 基础部分的顺序:基本语法,类相关的语法,内部类的语法,继承相关的语法,异常的语法,线程的语...
    子非鱼_t_阅读 31,759评论 18 399
  • 2017年8月2日 星期三 ...
    踏歌娘阅读 570评论 20 10
  • 曾经,焦虑是我的日常状态。 场景,2017年3月之前。 在家全职带娃2年,与社会脱节,与朋友绝缘,内心惶恐不安。不...
    苏菲亲子阅读 777评论 4 3
  • 今天闺女起的有点晚,她爸爸去送的急急忙忙的就走了,我收拾房间一看铅笔盒都没带,发夹也没带就急匆匆的走了,哎!这个粗...
    馨硕阅读 123评论 0 0
  • 作者:邓荣 赏自己一个幸运,不是口袋里扔进一个叮当心耳的铜钱。是在刚才一直打嗝不停不知怎么办的时候,听心灵的声音告...
    邓荣阅读 588评论 0 0