技能 | IT@信息采集

  1. Python自带标准库urllib
#urllib.parse 用于解析url
import urllib.parse
kw={'wd':'*'}
#编码
result=urllib.parse.urlencode(kw)
print(result) 
#解码
res=urllib.parse.unquote(result)
print(res)
#urllib.request 用于打开和读取URL
import urllib.request
import urllib.parse
url='*'
headers={'User-Agent':'*'}
data={'username':'*','password':'*','action':'login'}
#1.发送请求
resp=urllib.request.urlopen(url,data=bytes(urllib.parse.urlencode(data),encoding='utf-8'))
html=resp.read().decode('gbk') #decode将bytes类型转成str类型
print(html)
#2.构建请求对象
req=urllib.request.Request(url,headers=headers)
#使用urlopen打开请求
resp=urllib.request.urlopen(req)
#从响应结果中读取数据
html=resp.read().decode('utf-8')
print(html)
#https://www.xicidaili.com/nn/ 用于免费代理IP
from urllib.request import build_opener
from urllib.request import ProxyHandler
proxy=ProxyHandler({'https':'*(IP地址):*(端口号)'})
opener=build_opener(proxy)
url='*'
resp=opener.open(url)
print(resp.read().decode('utf-8'))
#cookie 用于解决http的无状态性
import urllib.request
from http import cookiejar
filename='cookie.txt'
#获取cookie
def get_cookie():
    cookie=cookiejar.MozillaCookieJar(filename) #实例化一个MozillaCookieJar 用于保存cookie
    handler=urllib.request.HTTPCookieProcessor(cookie) #创建handler对象
    opener=urllib.request.build_opener(handler) #创建opener对象
    url='*'
    resp=opener.open(url) #请求网址
    cookie.save() #存储cookie文件
#读取cookie
def use_cookie():
    cookie=cookiejar.MozillaCookieJar() #实例化MozillaCookieJar
    cookie.load(filename) #加载cookie文件
    print(cookie)
if __name__=='__main__':
    get_cookie()
    use_cookie()
#urllib.error.URLError 用于捕获由urllib.request产生的异常
import urllib.request
import urllib.error
url='*’
try
    resp=urllib.request.urlopen(url)
except urllib.error.URLError as e
    print(e.reason)
#urllib.error.HTTPError 用于处理HTTP与HTTPS请求的错误
import urllib.request
import urllib.error
url='*’
try
    resp=urllib.request.urlopen(url)
except urllib.error.HTTPError as e
    print('原因:',e.reason)
    print('响应状态码:',str(e.code))
    print('响应头数据:',e.headers)
  1. 第三方requests库
#requests.get() 用于发送get请求
import requests
url='*’
params=['*':'*']
resp=requests.get(url,params=params)

resp.encoding='utf-8' #设置响应的编码格式
cookie=resp.cookies #获取请求后的cookie信息
headers=resp.headers
print('响应状态码:',resp.status_code)
print('请求后的cookie:',cookie
print('获取请求的网址:',resp.url)
print('响应头:',headers)
print('响应内容:',resp.text)

json_data=resp.json() #获取json数据
print(json_data)

with open('*','wb') as file #存储二进制数据
    file.write(resp.content)

session=requests.session() #使用session
resp=session.get(url)
resp.encoding='utf-8’
print(resp.text)
#requests.post() 用于发送post请求
import requests
url='*'
data={'username':'*','password':'*','action':'login'}
resp=requests.post(url,data=data)
resp.encoding='gb2312’
print(resp.status_code)
print(resp.text)

session=requests.session() #使用session
resp=session.post(url,data=data)
resp.encoding='gb2312’
print(resp.text)
  1. 第三方库XPath
#XPath 用于提取数据
import requests
from lxml import etree
url='*'
headers={'User-Agent':'*'}
resp=requests.get(url,headers) #发送请求
e=etree.HTML(resp.text) #将str类型转换成class 'lxml.etree._Element'(print(type(e)))
e1=e.xpath('//*节点名[last()-1]/text()')
e2=e.xpath('//*节点名[@*属性="*"]/text()') 
for e1,e2 in zip(e1,e2)
    print(e1,":",e2)
  1. 第三方库BeautifulSoup
#BeautifulSoup 用于提取数据
from bs4 import BeautifulSoup
html='''
    <html>
        <head>
            <title>*</title>
        </head>
        <body>
             <h1 class='*'>*</h1>
             
        </body>
    </html>
'''
bs=BeautifulSoup(html,'html.parser')
bs=BeautifulSoup(html,'lxml')
print(bs.title) #获取标签
print(bs.h1.attrs) #获取h1标签的所有属性

#获取单个属性
print(bs.h1.get('class'))
print(bs.h1['class'])

#获取文本内容
print(bs.title.text)
print(bs.title.string) #获取包括注释内容

print(bs.find('h1',class_='*')) #获取第一个满足条件的标签
print(bs.find_all('h1',class_='*')) #获取所有满足条件的标签列表
for item in bs.find_all('h1',class_='*')
    print(item)
print(bs.find_all('h1',attrs={'class':'*'}))

#css选择器
print(bs.select("#*"))
print(bs.select('.*'))
print(bs.select('*>*'))
print(bs.select('*.*>*'))
for item in bs.select('*.*>*'):
    print(item.text)
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,039评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,223评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 161,916评论 0 351
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,009评论 1 291
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,030评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,011评论 1 295
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,934评论 3 416
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,754评论 0 271
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,202评论 1 309
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,433评论 2 331
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,590评论 1 346
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,321评论 5 342
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,917评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,568评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,738评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,583评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,482评论 2 352

推荐阅读更多精彩内容