urllib库

#网页读取以及读取内容保存的两种方法

import urllib.request

#将检索到的网页的保存的本地文件上

urllib.request.urlretrieve('http://www.zhihu.com',filename='c:/users/15432/localfile/newfile1.html')

urllib.request.urlcleanup()#清理网页请求,      retrieve:检索


#打开某网页并读取内容

data=urllib.request.urlopen('http://www.zhihu.com').read()

data=data.decode('utf-8','ignore')

fh=open('c:/users/15432/localfile/newfile2.html','wb')

#将读取的网页内容写入本地文件

fh.write(data)

fh.close()


file=urllib.request.urlopen('http://www.zhihu.com')

print(file.info())

print(file.getcode())

print(file.geturl())


#循环爬取异常处理

for i in range(0,5):

    try:

        data=urllib.request.urlopen('http://www.bilibili.com/',timeout=0.1)

        data=data.read()

        print(len(data))

    except Exception as err:

        print('出现异常:'+str(err))


#http请求post,get

#get请求,一般问号?都代表是get请求

import urllib.request

kwd='python'

url='http://www.baidu.com/s?wd='+kwd

req=urllib.request.Request(url) #网址转成请求 

data=urllib.request.urlopen(req).read()#读取目标网页内容

#将读取网页内容存在本地文件

fh=open('c:/users/15432/localfile/newfile4.html','wb')#以写入形式打开本地文件

fh.write(data)#写入内容

fh.close()#关闭文件


import urllib.request

kwd='蒋先稳'

kwd=urllib.request.quote(kwd)#中文字符需进行编码设置

url='http://www.baidu.com/s?wd='+kwd

req=urllib.request.Request(url) #网址封装成请求 

data=urllib.request.urlopen(req).read()

fh=open('c:/users/15432/newfile4.html','wb')

fh.write(data)

fh.close()


#post请求 需要账号密码验证请求进入

import urllib.request

import urllib.parse#解析模块(用来封装账户、密码)

url='http://email.163.com'#网址

#账号密码的封装

pwd=urllib.parse.urlencode({'email':'jiangxianwen@163.com','password':'*********'}).encode('utf-8')

#网址、账号密码封装成请求

req=urllib.request.Request(url,pwd)

data=urllib.request.urlopen(req).read()#读取登陆网页

fh=open('c:/users/15432/newfile4.html','wb')#以写入方式打开本地文件

fh.write(data)#写入读取的网页内容

fh.close()#关闭本地文件


#尝试正常状况下访问博客(异常处理)

import urllib.request

import urllib.error #异常模块导入

try:

    data=urllib.request.urlopen('http://www.shmtu.edu.cn/').read()

    print( data.index)

    print(len(data))

except urllib.error.URLError as err:

    if hasattr(err,'code'):

        print(err.code)

    if hasattr(err,'reason'):

        print(err.reason)


#伪装成浏览器爬虫

import urllib.request

url='http://blog.csdn.net/weiwei_pig/article/details/52123738'#网址

#用户浏览器请求头部,元组形式

headers=('User-Agent',' Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36')

opener=urllib.request.build_opener()#建立能够以头部一起请求的方式

opener.addheaders=[headers]#加入头部

data=opener.open(url).read()#开始网页读取

fh=open('c:/users/15432/newfile5.html','wb')#打开本地新文件

fh.write(data)#在本地文件写入爬取的内容

fh.close()#关闭文件


#利用“正则表达式+异常处理”爬取新浪新闻的每条

import urllib.request

import urllib.error

import re #正则表达式

data=urllib.request.urlopen('http://news.sina.com.cn/').read()#打开网页并读取内容

data=data.decode('utf-8','ignore')#忽略编码错误

pat='href="(http://mil.news.sina.com.cn/.*?)"'#定义原子

allurl=re.compile(pat).findall(data)#获取符合要求(筛选后)的所有网页

#allurl=re.findall(pat,data)

print(len(allurl))

#将所有爬取的网页都分别存储在本地文件中

for i in range(0,len(allurl)):

    try:

        print('第'+str(i)+'爬取',end=';')

        thisurl=allurl[i]#按顺序循环取网页

        file='c:/users/15432/sina/'+str(i)+'.html'#动态设置本地文件

        urllib.request.urlretrieve(thisurl,file)#将每次获取的网页存在本地文件夹中

        print('---成功---')

    except urllib.error.URLError as err:

        if hasattr(err,'code'):

            print(err.code)

        if hasattr(err,'reason'):

            print(err.reason)


#代理服务器爬虫

import urllib.request

import re

#构建使用代理服务器函数

def use_proxy(url,ip):

    proxy=urllib.request.ProxyHandler({'http':ip})

    opener=urllib.request.build_opener(proxy,urllib.request.HTTPHandler)

    urllib.request.install_opener(opener)#申明全局变量

    data=urllib.request.urlopen(url).read().decode('utf-8','ignore')

    return data

#传入实参

url_1='http://www.csdn.net/'

ip_1='118.190.95.35:9001'   

data_1=use_proxy(url_1,ip_1)

print(len(data_1))


#图片爬虫

import urllib.request

import re

def use_proxy(url,ip):

    proxy=urllib.request.ProxyHandler({'http':ip})

    opener=urllib.request.build_opener(proxy,urllib.request.HTTPHandler)

    urllib.request.install_opener(opener)#全局变量

    data=urllib.request.urlopen(url).read().decode('utf-8','ignore')

    return data

keywd='短裤'

keywd=urllib.request.quote(keywd)

for i in range(100):

    url='https://s.taobao.com/list?spm=a21bo.2017.201867-links-0.17.122311d9m6DSSI&q='+keywd+'&cat=16&seller_type=taobao&oetag=6745&source=qiangdiao&bcoffset=12&s='+str(60*i)

    ip='118.190.95.35:9001'

    data=use_proxy(url,ip)


#定义函数,使用代理服务器,并且伪装成浏览器,带有异常处理机制

def use_proxy(url,ip):

    try:

        req=urllib.request.Request(url)#使用Request请求

        req.add_header('User-Agent','Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36')


        proxy=urllib.request.ProxyHandler({'http':ip})

        opener=urllib.request.build_opener(proxy,urllib.request.HTTPHandler)

        urllib.request.install_opener(opener)

        data=urllib.request.urlopen(req).read().decode('utf-8','ignore')

        return data


    except urllib.error.URLError as err:

        if hasattr(err,'code'):

            print(err.code)

        if hasattr(err,'reason'):

            print(err.reason)

        time.sleep(10)#urlerror异常延长10秒处理

    except Exception as err:

        print('Exception:'+str(err))

        time.sleep(1)#若Exception异常延长1秒

url_1='http://www.csdn.net/'

ip_1='118.190.95.35:9001'   

data_1=use_proxy(url_1,ip_1)

print(len(data_1))     


#多线程爬虫

#建立线程A

import threading

class A(threading.Thread):

    def __init__(self):#初始化多线程

        threading.Thread.__init__(self)

    def run(self):

        for i in range(2):

            print('我是线程A')

#建立线程B

import threading

class B(threading.Thread):

    def __init__(self):#初始化多线程

        threading.Thread.__init__(self)

    def run(self):

        for i in range(3):

            print('我是线程B')

t1=A()

t1.start()

t2=B()

t2.start()

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,921评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,635评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,393评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,836评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,833评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,685评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,043评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,694评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 42,671评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,670评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,779评论 1 332
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,424评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,027评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,984评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,214评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,108评论 2 351
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,517评论 2 343

推荐阅读更多精彩内容