请说人话-试论Python3中的编码问题

最近在玩Python3做模拟http协议的请求的时候发现一个问题。。。。
在对html response的decode时抛出,代码原样为:

response = urllib.urlopen(dsturl)
    content = response.read().decode('utf-8')

抛出错误为

File "./oatest_p3.py", line 20, in getAddEvent
  content = response.read().decode()
UnicodeDecodeError: 'utf8' codec can't decode byte 0xb2 in position 19107: invalid start byte

想了半天也不明白的是在它声明为utf-8编码的网页中为什么会出现utf-8无法解析的字符?
通过万能的度娘,发现解决方式如下:
可以使用decode('utf-8', 'ignore')

知识点为:

decode是把一个无编码的str,依照给入的参数为解码系统,解码后映射到unicode字符集,返回为unicode对象,如果不是关键内容,解不出来就ignore也是可以的。浏览器的解码部分通常有个fallback,对utf8解不出来的字符可以尝试使用本地local

为了以后用python3更省心一些,索性把相关的编码知识看了一下,做一个小结,希望对同掉入坑的朋友有些帮助。


编码的黑历史

首先我们来理一下编码的发展历史:

最开始出现计算机的时候,人类试图用一个叫ASCIIde东西来完成和机器之前的所有对话。

但很快发现,这样是完全不够用的,各个国家有各个国家的语言,比如中国,对于老外来说如同天书的中文,对于机器来说同样无法解读,此时聪明的人类就发明了GB2312的编码来表示中文,很快发现一些特殊的字无法辨识,就又开发了GBK可以表示更多的字,后来发现,少数民族的字连GBK都搞不定,就又多了一个GB18030,从中国的编码发展史就可以看出每个国家都有自己的编码格式。

照这样发展下去,人类很快就遇到和造巴比伦塔一样的问题。所以Unicode横空出世,解决了所有的问题,但就有一个小缺点,特别占存储空间,是ASCII的两倍,在硬件性能还是瓶颈的时候,那个酸爽,你懂的。于是呢,聪明的人类发明了遇长则长,遇短则短的Utf-8,这样就可以更加灵活的使用存储空间了。

看完上面长长的发展历史,码农们的内心都是崩溃的,你说没事儿整那么多的编码格式干嘛!@——@ 干嘛!
不过,这个已经是既定事实,我们也只好接受。


Python3中默认是UTF-8的编码格式,可以通过以下代码来查看:

import sys
 
sys.getdefaultencoding()

那么问题就来了,如果我的编码文件和需要解释它的工程,控制台都不是一个编码格式,那怎么办呢?

这时,就需要祭出Python3中的针对编码问题特别能打的两个SSRencode和decode 函数,特别是在做爬虫项目的时候这两个函数用的熟练非常有好处(不要问我是怎么知道的。。。)。

encode的作用,使我们看到的直观的字符转换成计算机内的字节形式。decode刚好相反,把字节形式的字符转换成‘人话’。

1.png

\x表示后面是十六进制, 在Python3中,以字节形式表示的字符串则必须加上前缀b,也就是写成上图的b'xxxx'形式。

2.png

如果是中文字符,在用‘GBK’来encode了以后使用Python3中默认的decode来解码的时候就会出现报错的情况,如上图所示。所以,可以ignore了。否则就需要使用对应的编码格式进行解码,中文网站最常出现的就是GBK或者GB2312.
嗯,就这酱紫,先分析到这里。有新的发现再来补充。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容