爬虫基础之urllib的简单使用 - get 请求(一)

爬虫里面,我们不可避免的要用urllib中的urlopen()方法去请求或获取一个网页的内容,这里面的区别在于urlopen打开URL网址,url参数可以是一个字符串url或者是一个Request对象,返回的是http.client.HTTPResponse对象.http.client.HTTPResponse对象大概包括read()、readinto()、getheader()、getheaders()、fileno()、msg、version、status、reason、debuglevel和closed函数,其实一般而言使用read()函数后还需要decode()函数,这里一个巨大的优势就是:返回的网页内容实际上是没有被解码或的,在read()得到内容后通过指定decode()函数参数,可以使用对应的解码方式。
接下来我们以爬取百度首页为例:

引入库

import urllib.request  

方式一:使用url直接请求百度网址

def use_get1(url):
    html = urllib.request.urlopen(url).read()#请求并读取
    data = html.decode("utf-8") #解码
    return data

#调用
url = "http://www.baidu.com"
response = use_get1(url)
print(response)

#执行 python urlopenget-1.py  (在命令行中进入爬虫文件所在的目录)

方式二:使用 Request 对象并设置请求头

def user_get2(url):
    req = urllib.request.Request(url)
    #添加请求头
    req.add_header("User-Agent","Mozilla/5.0 (Windows NT 6.1; WOW64) \
        AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.186 Safari/537.36")
    html = urllib.request.urlopen(req).read()#读取
    #写入文件中
    with open("C:\\Users\\Administrator\\Desktop\\feiniu\\lcy.html", "wb") as f:
        f.write(html)


#调用
url = "http://www.baidu.com"
user_get2(url)

带有关键字查询的get请求

def use_get_key(url, key):
    new_url = url + urllib.request.quote(key) #对关键字部分进行编码
    req = urllib.request.Request(new_url)
    #添加请求头
    req.add_header("User-Agent","Mozilla/5.0 (Windows NT 6.1; WOW64) \
        AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.186 Safari/537.36")
    html = urllib.request.urlopen(req).read()
    #写入文件
    with open("C:\\Users\\Administrator\\Desktop\\feiniu\\yin.html", "wb") as f:
        f.write(html)


#调用
url = "http://www.baidu.com/s?wd="
key = "飞牛冲天"
use_get_key(url, key)
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • Spring Cloud为开发人员提供了快速构建分布式系统中一些常见模式的工具(例如配置管理,服务发现,断路器,智...
    卡卡罗2017阅读 135,123评论 19 139
  • 基础知识: 1.url(Uniform Resource Locator):叫做统一资源定位符,是互联网上标准资源...
    不_初心阅读 3,953评论 0 3
  • 1.基本方法 urllib.request.``urlopen(url, data=None, [timeout,...
    BerL1n阅读 408评论 1 0
  • 1. 网页抓取 所谓网页抓取,就是把URL地址中指定的网络资源从网络流中抓取出来。在Python中有很多库可以用来...
    rhlp阅读 1,002评论 0 0
  • 如果可以,我愿陪你颠沛流离,慢慢变老; 如果可以,我愿陪你看细水长流,花开花落; 如果可以,我不愿让你一个人 。
    愤怒的金桔阅读 266评论 0 0