爬虫笔记(一)——爬取静态网页

一、Requests库

中文文档页面:https://requests.kennethreitz.org/zh_CN/latest/

1.requests.get() 方法

import requests

res=requests.get('www.baidu.com')

print(res)

输出:<Response [200]>

requests.get(),参数为字符串,返回值为Response对象。

2.Response对象

常用属性

status_code     http状态

text                  内容的字符串形式(HTML文本,一般用于文字)

content            内容的二进制形式(一般用于图片)

encoding         内容的编码

3.requests.post()方法

post方法用于向服务器提交信息,如登录,评论等。

import requests

data = {

    'data' = '...',

    #post提交的参数

}

res = requests.post('http://...', data=data)

print(res)

输出:<Response [200]>

data的参数可以通过F12中的post请求下的Form Data查看:

上述流程不能保存登录信息,每次请求信息都要重新登录,为简化程序,可以用cookies传递登录信息,上述代码的cookies为res.cookies,可以在下一次的post请求中加入参数 cookies=res.cookies 。

4.会话对象Session

会话对象让你能够跨请求保持某些参数。它也会在同一个 Session 实例发出的所有请求之间保持 cookie 。

import requests

headers = {

    'user-agent': ''

}

data = {

    #数据

}

s = requests.Session()

s.headers.updata(headers)

res = s.post('http://...', data=data)

print(res)

进行多个post请求时也会保存cookie。

二、BeautifulSoup库

import requests

from bs4 import BeautifulSoup 

headers = {'user-agent':'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/537.36 (KHTML, like Gecko)Chrome/76.0.3809.132Safari/537.36'}

res = requests.get('https://book.douban.com/top250', headers = headers)

soup = BeautifulSoup(res.text, 'html.parser')

创建BeautifulSoup对象需要两个字符串参数,HTML文本HTML解析器。html.parser是Python内置的解析器。

print(res.text)print(soup)内容一样,区别在于类型,前者是str,后者是bs4.BeautifulSoup

1.BeautifulSoup对象

find()            返回符合条件的首个数据

find_all()        返回符合条件的所有数据

find()/find_all()方法的属性可以是标签属性,可以使用多个参数。

例:soup.find_all('div', id='...', class_='...'), class为区别于Python中的类用 class_ 代替。

返回值为Tag对象由Tag对象组成的列表

tag.text                获取标签内容

tag['属性名']        获取标签属性值

tag对象也可以使用find()方法嵌套查询。

items = soup.find_all('div',class_= 'item')

for i in items:

    tag=i.find('a')

    name=tag.text  

    link = tag['href']

    print(name,link)

2.CSS选择器

在 CSS 选择器中,# 代表 id,. 代表 class。比如:#login 表示 id='login' 的所有元素,.item 表示 class='item' 的所有元素。

我们也可以直接通过标签名选择对应的元素,比如:a 表示所有的 a 元素,p 表示所有的 p 元素。

它们也可以组合在一起,选择同时符合条件的元素,比如:a#login 表示所有 id='login' 的 a 元素,p.item 表示所有 class='item' 的 p 元素,#login.item 表示所有 id='login' 且 class='item' 的元素,.item.book 表示所有 class 同时为 item 和 book 的元素。

需要注意的是,选择同时符合条件的元素,选择器之间不能有空格,如果写成 .item .book 就是另一个意思了。这是新的知识点——子元素选择。

当两个选择器之间加了空格,表示子元素选择。还是以 .item .book 为例,它表示选择所有 class='item' 的元素里面 class='book' 的元素,即嵌套在 class='item' 的元素里面 class='book' 的元素。

这个嵌套可以是任意层级的,只要在里面就行,不要求直接嵌套在第一层。如果只需要直接嵌套在第一层符合条件的元素,可以用 > 分隔。比如:.item > .book

items = soup.select('div.item a')

for i in items:

    name = i.text 

    link = i['href']

    print(name, link)

三、静态网页爬虫技巧

1.批量生成网址

url = 'https://book.douban.com/top250?start={}'

# num 从 0 开始因此不用再 -1

urls = [url.format(num*25) for num in range(10)]

print(urls)

# 输出:

# [

# 'https://book.douban.com/top250?start=0',

# 'https://book.douban.com/top250?start=25',

# 'https://book.douban.com/top250?start=50',

# 'https://book.douban.com/top250?start=75',

# 'https://book.douban.com/top250?start=100',

# 'https://book.douban.com/top250?start=125',

# 'https://book.douban.com/top250?start=150',

# 'https://book.douban.com/top250?start=175',

# 'https://book.douban.com/top250?start=200',

# 'https://book.douban.com/top250?start=225'

# ]

2.反爬虫

 · 修改请求头

为防止网站识别出爬虫拒绝提供信息,需要修改请求头(request headers)。下图是request headers中的部分字段,user-agent表示用户代理,修改该字段可以把爬虫模拟成浏览器访问。

import requests

# 从浏览器中复制粘贴的请求头

headers = {'user-agent' : 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.132 Safari/537.36'}

res = requests.get('https://book.douban.com/top250', headers=headers)

print(res.text)

为防止访问过快背封ip,可以用 time.sleep() 降低访问速度。

 · 使用代理

import requests

proxies = {

    "http" : "http://......",

    "https" : "https://......"

}

request.get("www.baidu.com", proxies = proxies)

练习

import requests

import time

from bs4import BeautifulSoup

headers = {'user-agent':"Mozilla/5.0 (Windows NT 10.0; Win64; x64) \

            AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.97 \

            Safari/537.36 Edg/83.0.478.45"}

url ='https://movie.douban.com/top250?start={}&filter='

urls = [url.format(i*25) for i in range(10)]

for url in urls:

    res = requests.get(url, headers=headers)

    soup = BeautifulSoup(res.text, 'html.parser')

    items = soup.find_all('div', class_='item')

    for item in items:

        no_ = item.find('em').text

        name = item.find('div', class_='hd').find('span').text

        with open('..\\file\\movie.txt', 'a')as f:

            f.write(no_ +' ' + name +'\n')

    time.sleep(0.1)

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,163评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,301评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,089评论 0 352
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,093评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,110评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,079评论 1 295
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,005评论 3 417
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,840评论 0 273
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,278评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,497评论 2 332
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,667评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,394评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,980评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,628评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,796评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,649评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,548评论 2 352