urllib2是Python的一个获取URLs的组件。他以urlopen函数的形式提供了一个非常简单的接口,具有利用不同协议获取URLs的能力,同样提供了一个比较复杂的接口来处理一般情况。
urllib2支持获取不同格式的URLs例如:ftp、Gopher等,并利用它们相关网络协议进行获取。
urllib2可用来完成以下功能:
1.获取Web页面
2.在远程http服务器上验证
3.额外数据请求,如表单提交(GET和POST)
4.异常处理
5.非http协议通信(如FTP)
1.获取Web页面
例1:打印html页面,下面是最简单的形式
#!/usr/bin/env python
importurllib2
response=urllib2.urlopen('http://www.google.com')
html=response.read()
printhtml
例2:打开指定页面并打印html页面和一些额外的信息,采用了urllib2最一般的形式:i、urllib2.Request()的功能是构造一个请求信息,返回的req就是一个构造好的请求。ii、urllib2.urlopen()的功能是发送刚刚构造好的请求req,并返回一个文件类的对象response,包括了所有的返回信息。iii、通过response.read()可以读取到response里面的html,通过response.info()可以读到一些额外的信息。
#!/usr/bin/env python
importsys,urllib2
req=urllib2.Request(sys.argv[1])
response=urllib2.urlopen(req)
print"Retrieved",response.geturl()
info=response.info()
forkey,valueininfo.items():
print"%s = %s"%(key,value)
html=response.read()
printhtml
2.在远程http服务器上验证
有些站点需要http认证后才能访问。最普通的认证类型是基本认证,由客户端向服务器器发送一个用户名和密码。http认证一般显示一个弹出窗口来询问用户名和密码,这与基于cookie和form的认证不同。
下面是一个例子,首先定义了一个扩展urllib2.HTTPPasswordMgr的类,允许在需要的时候询问用户名和密码,然后调用build_opener()指定一些额外处理,其实在urllib2.urlopen()内部调用了build_opener(),并且不带任何参数。所以在访问常规网站的时候urllib2.urlopen()等于opener.open()返回都一样。
#!/usr/bin/env python
importsys,urllib2,getpass
classBasePassword(urllib2.HTTPPasswordMgr):
deffind_user_password(self,realm,authurl):
ret=urllib2.HTTPPasswordMgr.find_user_password(self,realm,authuri)
ifret[0]==Noneandret[1]==None:
sys.stdout.write("Login reauired for %s at %sn"%(realm,authurl))
sys.stdout.write("Username: ")
username=sys.stdin.readline().rstrip()
password=getpass.getpass().rstrip()
return(username,password)
else:
returnret
req=urllib2.Request(sys.argv[1])
opener=urllib2.build_opener(urllib2.HTTPBasicAuthHandler(BasePassword()))
response=opener.open(req)
printresponse.read()
3.表单提交(GET和POST)
有两种方法提交表单数据:GET和POST,取决于HTML文档中标签里面的参数
GET实例:
#!/usr/bin/env python
importsys,urllib2,urllib
keyword=sys.argv[1]
url=url+'?'+urllib.urlencode('http://www.xxx.com',[('query',keyword)])
req=urllib2.Request(url)
response=urllib2.urlopen(req)
printresponse.read()
POST实例:
#!/usr/bin/env python
importsys,urllib2,urllib
keyword=sys.argv[1]
url='http://www.xxx.com'
data=urllib.urlencode([('query',keyword)])
req=urllib2.Request(url)
response=urllib2.urlopen(req,data)
更一般的提交数据,通过urllib2.Request()构造一个有额外数据的请求信息。包括“http
header”和想要发送的数据,这些数据需要被以标准的方式encode,然后作为一个数据参数传送给Request对象。Encoding是在urllib中完成的,而不是在urllib2中完成的。
如下例:
#!/usr/bin/env python
import urllib,urllib2
url='http://www.baidu.com'
user_agent='Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'
values={'name':'Michael Foord','location':'Northampton','language':'Python'}
headers={'User-Agent':user_agent}
data=urllib.urlencode(values)
req=urllib2.Request(url,data,headers)
response=urllib2.urlopen(req)
the_page=response.read()
4.异常处理
捕获连接错误,在和远程Web服务器建立连接时,很多地方可能出现问题:提供的URL不对、URL使用了一个不支持的协议、主机名不存在、访问不到服务器或者服务器针对请求返回一个错误(例如:404)。
任何在连接过程中产生的异常要么是urllib2.URLError的实例,要么是它的一个子类。
#!/usr/bin/env python
import sys,urllib2
req=urllib2.Request(sys.argv[1])
try:
response=urllib2.urlopen(req)
excepturllib2.URLError,e:
print"Error retrieving data:",e
sys.exit(1)
printresponse.read()
5.非http协议通信(如FTP)
urllib2模块也支持非http协议。默认情况下支持http、ftp、gopher和机器本地硬盘上的文件,只是response.info()返回的报头会有所差异。
使用细节
1 Proxy 的设置
urllib2 默认会使用环境变量 http_proxy 来设置 HTTP Proxy。如果想在程序中明确控制 Proxy,而不受环境变量的影响,可以使用下面的方式:
import urllib2
enable_proxy=True
proxy_handler=urllib2.ProxyHandler({"http":'http://some-proxy.com:8080'})
null_proxy_handler=urllib2.ProxyHandler({})
ifenable_proxy:
opener=urllib2.build_opener(proxy_handler)
else:
opener=urllib2.build_opener(null_proxy_handler)
urllib2.install_opener(opener)
这里要注意的一个细节,使用 urllib2.install_opener() 会设置
urllib2 的全局 opener。这样后面的使用会很方便,但不能做更细粒度的控制,比如想在程序中使用两个不同的 Proxy
设置等。比较好的做法是不使用 install_opener 去更改全局的设置,而只是直接调用 opener 的 open 方法代替全局的
urlopen 方法。
2 Timeout 设置
在老版本中,urllib2 的 API 并没有暴露 Timeout 的设置,要设置 Timeout 值,只能更改 Socket 的全局 Timeout 值。
importurllib2
importsocket
socket.setdefaulttimeout(10)# 10 秒钟后超时
urllib2.socket.setdefaulttimeout(10)# 另一种方式
在新的 Python 2.6 版本中,超时可以通过 urllib2.urlopen() 的 timeout 参数直接设置。
importurllib2
response=urllib2.urlopen('http://www.google.com',timeout=10)
3 在 HTTP Request 中加入特定的 Header
要加入 Header,需要使用 Request 对象:
importurllib2
request=urllib2.Request(uri)
request.add_header('User-Agent','fake-client')
response=urllib2.urlopen(request)
对有些 header 要特别留意,Server 端会针对这些 header 做检查
User-Agent 有些 Server 或 Proxy 会检查该值,用来判断是否是浏览器发起的 Request
Content-Type 在使用 REST 接口时,Server 会检查该值,用来确定 HTTP Body 中的内容该怎样解析。
常见的取值有:
application/xml :在 XML RPC,如 RESTful/SOAP 调用时使用
application/json :在 JSON RPC 调用时使用
application/x-www-form-urlencoded :浏览器提交 Web 表单时使用
……
在使用 RPC 调用 Server 提供的 RESTful 或 SOAP 服务时, Content-Type 设置错误会导致 Server 拒绝服务。
4 Redirect
urllib2 默认情况下会针对 3xx HTTP 返回码自动进行 Redirect 动作,无需人工配置。要检测是否发生了 Redirect 动作,只要检查一下 Response 的 URL 和 Request 的 URL 是否一致就可以了。
importurllib2
response=urllib2.urlopen('http://www.google.cn')
redirected=response.geturl()=='http://www.google.cn'
如果不想自动 Redirect,除了使用更低层次的 httplib 库之外,还可以使用自定义的 HTTPRedirectHandler 类。
importurllib2
classRedirectHandler(urllib2.HTTPRedirectHandler):
defhttp_error_301(self,req,fp,code,msg,headers):
pass
defhttp_error_302(self,req,fp,code,msg,headers):
pass
opener=urllib2.build_opener(RedirectHandler)
opener.open('http://www.google.cn')
5 Cookie
urllib2 对 Cookie 的处理也是自动的。如果需要得到某个 Cookie 项的值,可以这么做:
importurllib2
importcookielib
cookie=cookielib.CookieJar()
opener=urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie))
response=opener.open('http://www.google.com')
foritemincookie:
ifitem.name=='some_cookie_item_name':
printitem.value
6 使用 HTTP 的 PUT 和 DELETE 方法
urllib2 只支持 HTTP 的 GET 和 POST 方法,如果要使用 HTTP PUT 和 DELETE,只能使用比较低层的 httplib 库。虽然如此,我们还是能通过下面的方式,使 urllib2 能够发出 HTTP PUT 或 DELETE
的包:
importurllib2
request=urllib2.Request(uri,data=data)
request.get_method=lambda:'PUT'#or'DELETE'
response=urllib2.urlopen(request)
这种做法虽然属于 Hack 的方式,但实际使用起来也没什么问题。
7 得到 HTTP 的返回码
对于 200 OK 来说,只要使用 urlopen 返回的 response 对象的 getcode() 方法就可以得到 HTTP 的返回码。但对其它返回码来说,urlopen 会抛出异常。这时候,就要检查异常对象的 code 属性了:
importurllib2
try:
response=urllib2.urlopen('http://restrict.web.com')
excepturllib2.HTTPError,e:
printe.code
8 Debug Log
使用 urllib2 时,可以通过下面的方法把 Debug Log 打开,这样收发包的内容就会在屏幕上打印出来,方便我们调试,在一定程度上可以省去抓包的工作。
importurllib2
httpHandler=urllib2.HTTPHandler(debuglevel=1)
httpsHandler=urllib2.HTTPSHandler(debuglevel=1)
opener=urllib2.build_opener(httpHandler,httpsHandler)
urllib2.install_opener(opener)
response=urllib2.urlopen('http://www.google.com')