爬虫作业三之爬百度百科数据(痛苦的查bug历程)

这个作业主要就是跟着视频教学《Python开发简单爬虫》,学着自己写了一个简单的爬百度百科的爬虫。

一开始的代码都是跟着视频里写的,自己编译运行的时候就出了一堆错。

首先是打错字,比如utf写成uft,init写成int,改完后编译通过,但是爬虫只爬了输入的第一个网页就报craw failed,不再继续爬了;

继续检查发现是有些模块的函数的return语句被我再查错的时候不小心注释掉了,改后仍然只能爬取第一个网页;

打印获得的第二个网页,复制网页地址到crome里打开,发现显示的是“锁定词条”,该页面没有其他可以连接的url,于是爬虫只能停止工作。为什么我爬虫获取的第二个url是这个呢?我打开第一个url也就是百度百科python词条的页面,右键审查元素,查到了第二个url的html语句如下:

<a class="lock-lemma" target="_blank" href="/view/10812319.htm" title="锁定">

而老师视频里我抄下来的抓取url的正则表达式正好是:

links = soup.find_all('a', href=re.compile(r"/item/\d*+.html"))

可以看到,上面的语句是满足下面的正则表达式的,所以python把这个url加入到url管理器中,作为下一条代爬取的url,导致程序的终止。那么证明由于百度又更新了编码,所以之前的正则表达式不适用于现在的页面了。重新分析页面,右键审查原色,得到可链接的其它页面的语句如下:

<a target="_blank" href="/item/Guido%20van%20Rossum">Guido van Rossum</a>

可以发现,这些语句都是标题为a,href格式为/item开头加上后面一系列字符串组成,所以我讲正则表达式改为:

links = soup.find_all('a', href=re.compile(r"/item/\w*"))

重新运行,python爬取1000个页面,成功打印出页面url、标题、内容。
不过很快我发现新的问题,输出的标题和内容,凡是有中文的都是乱码,而我按照老师的教学,在输入标题时进行了转码,代码如下:

fout.write("<td>%s</td>"  % data['title'].encode('utf-8'))

但是仍然输出的是乱码,我在网上搜了很多办法,到现在依然没有解决,希望有搞定这个问题的兄弟姐妹们告诉我是这么回事呢??(我把打印输出的代码贴出来给大家看看,环境是python2.7 OSX系统)

# coding=utf-8

class HtmlOutputer(object):
    def __init__(self):
        self.datas=[]


    def collect_data(self,data):
        if data is None:
            return
        self.datas.append(data)

    def output_html(self):
        fout = open('output.html','w')
        fout.write("<html>")
        fout.write("<body>")
        fout.write("<table>")
        for data in self.datas:
            fout.write("<tr>")
            fout.write("<td>%s</td>" % data['url'])
            fout.write("<td>%s</td>"  % data['title'].encode('utf-8'))
            fout.write("<td>%s</td>" % data['summary'].encode('utf-8'))
            fout.write("</tr>")

        fout.write("</table>")
        fout.write("</body>")
        fout.write("</html>")

刚刚折腾了一个中午,大概发现了问题所在,应该是浏览器编码问题。一开始我试着直接打印输出data['title'].,发现即使是中文也不会乱码,于是我将output。html改为用pycharm打开,发现里面的中文都能正常显示。最后,我讲output_html函数改写为output_txt函数,将要打印的内容改写到txt文件,写完打开发现,中文都能正常显示了。我猜,浏览器的编码可能不是UTF8,所以它反而将中文识别称为乱码了。
总之,终于把所有bug解决完毕了,嘘一口气啦~~
--------------我是不依不饶的分割线------------
仔细想了下,刚刚还不算是完全解决乱码问题,因为我写到html文件里面还是乱码。用crome随便打开一个网页,右键查看源码,发现如下显示;

<head>
  <meta charset="utf-8">
  <meta http-equiv="X-UA-Compatible" content="IE=Edge">

里面的 <meta charset="utf-8">,就是 html 编码的约束 。
所以在 html_outputer.py 中,write之前加入一句话:

fout.write("<meta charset='utf-8'>")

再运行,用crome打开output.html,就会发现整整齐齐的中文啦。
这回真正的完结撒花,折腾了一整天了可以嘘一口气了。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • Spring Cloud为开发人员提供了快速构建分布式系统中一些常见模式的工具(例如配置管理,服务发现,断路器,智...
    卡卡罗2017阅读 135,314评论 19 139
  • 1 前言 作为一名合格的数据分析师,其完整的技术知识体系必须贯穿数据获取、数据存储、数据提取、数据分析、数据挖掘、...
    whenif阅读 18,158评论 45 523
  • 利用python写一个爬虫,爬取百度百科的某一个词条下面的全部链接和每一个链接内部的词条主题和摘要。利用reque...
    DayDayUpppppp阅读 9,463评论 0 1
  • 33款可用来抓数据的开源爬虫软件工具 要玩大数据,没有数据怎么玩?这里推荐一些33款开源爬虫软件给大家。 爬虫,即...
    visiontry阅读 12,118评论 1 99
  • 小时候,也许是管理不善,也许是电力资源的缺乏,家里常常停电,还记得,妈妈常常在家里备上蜡烛,一旦停电,点起长长的白...
    萝卜英阅读 3,184评论 0 2