爬虫实战之如何爬取302页面-基础 2019-05-30

image.png

在爬取页面时,我们时常会遇到状态码不为202的页面,我们在遇到反爬时一般会有以下几种方法进行应对。
1、加User-Agent验证(代理网络用户取得网络信息)
2、加代理
3、验证码(图像识别或借助第三方打码平台)
4、selenium(动态加载)
5、换平台

接下来我们将讲解当网页状态码为302时,如何对网页进行爬取
--以klook网站日本旅游网页爬取为例
url='https://www.klook.com/zh-CN/search?type=country&query=%E6%97%A5%E6%9C%AC'

#导入包
import requests
from bs4 import BeautifulSoup
import re
import pandas as pd
url='https://www.klook.com/zh-CN/search?type=country&query=%E6%97%A5%E6%9C%AC'
r = requests.get(url)
soup = BeautifulSoup(r.text,'lxml')
urls = soup.find('div',class_='act_list').find_all('a')
#获取所有网址
url_lst = []
for url in urls:
    url_lst.append(url['href'])
    
url_lst
#为每个网址添加前缀'https://www.klook.com’
for n in range(0,len(url_lst)):
    url_lst[n]='https://www.klook.com'+url_lst[n]
print(url_lst)

点开网页,按F12查看元素,获取headers添加到requests.get里

def datacrawler(urli):
    headers = {#自行添加
}
    ri = requests.get(url=urli,headers=headers)   
    soupi = BeautifulSoup(ri.text,'lxml')
    title = soupi.find('h1',class_='t32').text
    info1 = soupi.find('ul',class_='act_icons t14').text
    info1 = re.split('[\n]',info1)
    for item in info1[:]:
        if item == '':
            info1.remove(item)
    info2 = soupi.find('strong',class_='t24').text
    info2 = re.split('[\n]',info2)
    for item in info2[:]:
        if item == '':
            info2.remove(item)
    info3 = soupi.find('div',class_='left_box').text
    info3 = re.split('[\n]',info3)
    for item in info3[:]:
        if item == '':
            info3.remove(item)
    info4 = soupi.find('span',class_='j_goto_review star_box').text
    info4 = re.split('[\n]',info4)
    for item in info4[:]:
        if item == '':
            info4.remove(item)
    dic={'票名':title,'注意事项':info1,'价格':info2,'参加人数':info3,'评分情况':info4}
    return dic

data = []
n = 0
for u in url_lst:
    print('采集网页',u)
    n+=1
    data.append(datacrawler(u))
    print('采集网页成功,总采集%i条网址/n'%n)

接下来将数据转存为文件,引入pandas包

import pandas as pd
tb = pd.DataFrame(data)
tb.to_excel('D:/日本klook网页爬取.xlsx',encoding='utf-8')
df = pd.read_excel('D:/日本klook网页爬取.xlsx')

对数据进行一定程度的清洗和处理,包括分列和删除无效字符

df['价格1']=df['价格'].str.split('¥').str[1]
df['评分']=df['评分情况'].str.split(',').str[0]
df['评价数目']=df['评分情况'].str.split('条').str[0]

以上就是此次爬取流程,属于基础爬虫,针对302页面,主要是加headers条件。

今日激励:Our integrity sells for so little, but it is all we really have.
尊严不值钱,却是我们仅有的。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,686评论 6 492
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,668评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 158,160评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,736评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,847评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,043评论 1 291
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,129评论 3 410
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,872评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,318评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,645评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,777评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,470评论 4 333
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,126评论 3 317
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,861评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,095评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,589评论 2 362
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,687评论 2 351

推荐阅读更多精彩内容

  • HTTP基本原理 URI、URL、URN(Uninform Resource) URI(Identifier):统...
    GHope阅读 2,070评论 2 26
  • 前面两篇文章讲了单页面如何爬取,那么我们来试试如何爬取二级页面。 在爬取页面的时候,需要有个良好的习惯,提前对爬取...
    十三新阅读 4,983评论 1 3
  • 爬虫的基本流程 一、发送HTTP请求(Request)通过Python库向目标站点发送HTTP请求,等待服务器响应...
    晓枫_0544阅读 767评论 0 0
  • 昨天早上,师父骑自行车上班,在一个路口不慎摔倒,虽然骨头没受到伤害,但是右膝内侧韧带拉伤了,需要卧床静养。 ...
    墨泉书院阅读 434评论 1 9
  • 2017年,9.27日,日志 早上6点钟起来。洗漱完才想起,没有打卡。签到完成,开始做伸展运动。一边听着喜马拉雅。...
    蓝朵格格阅读 243评论 0 2