urllib库简介
urllib库是Python中一个最基本的网络请求库。可以模拟浏览器的行为,向指定的服务器发送一个请求,并可以保存服务器返回的数据。urllib
是一个收集了多个使用URL的模块的软件包:
-
urllib.request
打开和阅读URLs -
urllib.error
包含urllib.request
抛出的异常 -
urllib.parse
用于处理URL -
urllib.robotparser
用于解析robots.txt文件
本文只介绍再爬虫中通常需要使用的request模块和parse模块
urllib.request
urlopen函数
在Python3的urllib库中,所有和网络请求相关的方法,都被集到urllib.request
模块下面了,而其中最为重要的又是urlopen
函数的基本使用:
#导入库
from urllib import request
#获取网页,打印
resp=request.urlopen("http://www.baidu.com/")
print(resp.read())
打印出来的即为网页的源代码,其中存在的unicode码可以通过
print(resp.read().decode('utf-8'))
转为utf中文字符!
urlretrieve函数
urlretrieve
函数也可以读取网页源码,不同的是它可以快速将网页源码存在本地目录下。
#urlretrieve(url,filename,reporthook,data,)
#一般定义url和filename即可
resp=request.urlretrieve("http://www.baidu.com","baidu.html")
request.Request
如果想要在请求的时候增加一些请求头,那么就必须使用request.Request类来实现。比如要增加一个User-Agent,示例代码如下:
from urllib import request
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36'
}
req = request.Request("http://www.baidu.com/",headers=headers)
resp = request.urlopen(req)
print(resp.read())
头文件可通过F12(开发者模式)找到
urllib.parse
本模块可以实现对于文本的转码。
urlencode
用浏览器发送请求的时候,如果url中包含了中文或者其他特殊字符,那么浏览器会自动的给我们进行编码。而如果使用代码发送请求,那么就必须手动的进行编码,这时候就应该使用urlencode
函数来实现。urlencode
可以把字典数据转换为URL编码的数据。示例代码如下:
from urllib import parse
data = {'name':'爬虫基础','greet':'hello world','age':100}
qs = parse.urlencode(data)
print(qs)
name=%E7%88%AC%E8%99%AB%E5%9F%BA%E7%A1%80&greet=hello+world&age=100
比如百度搜索搜索中国的两种表达:
https://www.baidu.com/s?wd=中国
https://www.baidu.com/s?wd=%E4%B8%AD%E5%9B%BD
这是因为浏览器会识别中文,自动转换,而urllib库则需要将中文字符转换为url编码的数据。
resp=request.urlopen("https://www.baidu.com/s?wd=中国")
print(resp.read().decode('utf-8'))
#报编码错误
UnicodeEncodeError: 'ascii' codec can't encode characters in position 10-11: ordinal not in range(128)
resp=request.urlopen("https://www.baidu.com/s?wd=%E4%B8%AD%E5%9B%BD")
print(resp.read().decode('utf-8'))
#可获得网页源码
parse_qs函数:
与上一个函数相反可以将经过编码后的url参数进行解码。示例代码如下:
from urllib import parse
qs = "name=%E7%88%AC%E8%99%AB%E5%9F%BA%E7%A1%80&greet=hello+world&age=100"
print(parse.parse_qs(qs))
#结果为字典
{'name': ['爬虫基础'], 'greet': ['hello world'], 'age': ['100']}
urlparse和urlsplit:
有时候拿到一个url,想要对这个url中的各个组成部分进行分割,那么这时候就可以使用urlparse或者是urlsplit来进行分割。示例代码如下:
from urllib import request,parse
url = 'http://www.baidu.com/s?username=zhongguo'
result = parse.urlsplit(url)
# result = parse.urlparse(url)
print('scheme:',result.scheme)
print('netloc:',result.netloc)
print('path:',result.path)
print('query:',result.query)
#输出结果
scheme: http
netloc: www.baidu.com
path: /s
query: username=zhongguo
urlparse和urlsplit基本上是一模一样的。唯一不一样的地方是,urlparse里面多了一个params属性,而urlsplit没有这个params属性。比如有一个url为:
url = 'http://www.baidu.com/s;hello?wd=python&username=abc#1'
那么urlparse可以获取到hello,而urlsplit不可以获取到。url中的params也用得比较少。