小bug记

jieba分词

jieba分词,很好的中文分词库。前一段时间我用它来检测网页的敏感词。
遇到几个问题,记一下。

辣妈比美

我的敏感词库里面,‘妈比’是个敏感词。将敏感词库(TXT)导入结巴的辞典,分词结果为辣妈,妈比,比美,很尴尬

不要用json

我先用scrapy将网页内容抓取下来存入HBASE,然后从HBASE中取出网页内容,BeautifulSoup提取文本并进行分词。后来因为一些编码问题,我在scrapy的pipeline中将网页的html转换成json格式并入库,导致分词失败。
json格式分出来的词是这样的,比如中文字\u4f60\u597d,会被分成\,u,4,f,6,0,\,u,5,9,7,d

flag=ad

我在程序中把广告词的flag(词性)记为ad,结果造成很多误判,查询jieba的dict.txt我发现原来ad这个flag已经被用过了,例如仔细 2997 ad

Scrapy爬虫编码

用Python2最蛋疼的就是编码,爬中文网页最蛋疼的就是编码,最最蛋疼的就是用Python2代码统一爬各种编码的中文站。Scrapy的Python2版本有时抓取gb2312这类编码的网站会爆UnicodeDecodeError
比较彻底的解决办法使用Python3的Scrapy。

Python3!Python3!

最近在把代码向Python3迁移。整体感觉Python3对各种数据格式的转换更加规范,不规范的直接报错,而不是给你来个默认的转换规则。最近看的O'Relly的书,讲Python的,已经没有用Python2做示例代码的了。
也许多年后的某天,我会回想起坐在ThinkPad前的那个下午,那时候讲Python,还有两个版本呢。

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 环境管理管理Python版本和环境的工具。p–非常简单的交互式python版本管理工具。pyenv–简单的Pyth...
    MrHamster阅读 3,856评论 1 61
  • # Python 资源大全中文版 我想很多程序员应该记得 GitHub 上有一个 Awesome - XXX 系列...
    小迈克阅读 3,055评论 1 3
  • # Python 资源大全中文版 我想很多程序员应该记得 GitHub 上有一个 Awesome - XXX 系列...
    aimaile阅读 26,581评论 6 427
  • 众所周知在制浆就是由植物纤维原料分离出纤维而得纸浆的过程。在这过程中浆会产生大量的泡沫,这些泡沫会影响纸的质量和...
    1a66028e1490阅读 311评论 0 0
  • 春节时,在外地生活的弟弟和妹妹都回来了。妈妈因为这几年一直在外地给弟弟照顾孩子,家里只有爸一个人在。而爸几十年来很...
    听风掠过阅读 366评论 4 3