Python爬虫学习笔记(1):抓取静态网页

一、使用XPath抓取静态网页内容的基本流程

首先是引入库:

import requests
from lxml import etree

然后提取HTML内容

url='https://book.douban.com/top250'
data=requests.get(url).text
s=etree.HTML(data)

最后提取想要的内容
用浏览器(我用的火狐)打开目标网页(比如豆瓣Top500),按F12,选中要抓取的元素,右键复制XPath,如图:

选取豆瓣Top500中第一本书的书名

BookNameCh=s.xpath('/html/body/div[3]/div[1]/div/div[1]/div/table[1]/tr/td[2]/div[1]/a/text()')

看看效果

print(BookNameCh)

如图:


VS Code中的调试结果

二、使用replace进行字符串的初步处理

可以看到输出结果中有很多空格和转行,很不美观,我们可以使用replace对它进行初步处理

引入库:
import re
构建处理函数:
比如q=q.replace(' ','')就是将空格替换为空值,实现了去空格

def mystring(p):
    q=str(p)
    q=q.replace(' ','') 
    q=q.replace('\\n','')
    q=q.replace('[','')
    q=q.replace(']','')
    q=q.replace('\'','')
    q=q.replace('\"','')
    q=q.replace(',','')
    return q

再来看一下效果:

BookNameCh=mystring(s.xpath('/html/body/div[3]/div[1]/div/div[1]/div/table[1]/tr/td[2]/div[1]/a/text()'))
print(BookNameCh)

如图:


处理后输出的结果

三、多页多个内容的抓取

1.单页中多个内容的抓取

比较第一本书和第二本书的xpath,发现只是table[]不同而已,通过循环结构即可实现

    for j in range(1,26):
        BookNameCh.append(mystring(s.xpath('/html/body/div[3]/div[1]/div/div[1]/div/table[{}]/tr/td[2]/div[1]/a/text()'.format(j))))

2.翻页

比较第一页和第二页的网址的区别,发现只是?start=跟的数不同,且以25为步长递增,通过循环结构也容易实现

for i in range(10):
    url='https://book.douban.com/top250?start={}'.format(i*25)
    #url='https://book.douban.com/top250'

3.使用数组组织抓到的数据

定义一个数组
BookNameCh=[]
将数据填入数组中
BookNameCh.append(数据)
输出数据
print(BookNameCh[i*25+j-1])

四、将数据写入本地文件

为了让其他软件能够处理,我们需要将数据写入本地文件

with open('booktop250.csv','w',encoding='utf-8') as f:
    f.write("BookNameCh,BookNameFo,BookInfo,BookScore,ReviewerNumber,Comment\n")
    for i in range(10):
        for j in range(1,26):
            f.write("{},{},{},{},{},{}\n".format(BookNameCh[i*25+j-1],BookNameEn[i*25+j-1],BookInfo[i*25+j-1],BookScore[i*25+j-1],ReviewerNumber[i*25+j-1],Comment[i*25+j-1]))

用SPSS查看一下所获得的数据,如图:


在SPSS中查看所获得的数据

下面是完整代码:

import requests
from lxml import etree
import re

def mystring(p):
    q=str(p)
    q=q.replace(' ','')
    q=q.replace('\\n','')
    q=q.replace('[','')
    q=q.replace(']','')
    q=q.replace('\'','')
    q=q.replace('\"','')
    q=q.replace(',','')
    return q


BookNameCh=[]
BookNameEn=[]
BookInfo=[]
BookScore=[]
ReviewerNumber=[]
Comment=[]


for i in range(10):
    url='https://book.douban.com/top250?start={}'.format(i*25)
    #url='https://book.douban.com/top250'
    data=requests.get(url).text
    s=etree.HTML(data)
    for j in range(1,26):
        BookNameCh.append(mystring(s.xpath('/html/body/div[3]/div[1]/div/div[1]/div/table[{}]/tr/td[2]/div[1]/a/text()'.format(j))))
        BookNameEn.append(mystring(s.xpath('/html/body/div[3]/div[1]/div/div[1]/div/table[{}]/tr/td[2]/div[1]/span/text()'.format(j))))
        BookInfo.append(mystring(s.xpath('/html/body/div[3]/div[1]/div/div[1]/div/table[{}]/tr/td[2]/p[1]/text()'.format(j))))
        BookScore.append(mystring(s.xpath('/html/body/div[3]/div[1]/div/div[1]/div/table[{}]/tr/td[2]/div[2]/span[2]/text()'.format(j))))
        pReviewerNumber=mystring(s.xpath('/html/body/div[3]/div[1]/div/div[1]/div/table[{}]/tr/td[2]/div[2]/span[3]/text()'.format(j)))
        pReviewerNumber=pReviewerNumber.replace('人评价)','')
        pReviewerNumber=pReviewerNumber.replace('(','')
        pReviewerNumber=int(pReviewerNumber)
        ReviewerNumber.append(pReviewerNumber)
        Comment.append(mystring(s.xpath('/html/body/div[3]/div[1]/div/div[1]/div/table[{}]/tr/td[2]/p[2]/span/text()'.format(j))))
        print(BookNameCh[i*25+j-1])
        print(BookNameEn[i*25+j-1])

with open('booktop250.csv','w',encoding='utf-8') as f:
    f.write("BookNameCh,BookNameFo,BookInfo,BookScore,ReviewerNumber,Comment\n")
    for i in range(10):
        for j in range(1,26):
            f.write("{},{},{},{},{},{}\n".format(BookNameCh[i*25+j-1],BookNameEn[i*25+j-1],BookInfo[i*25+j-1],BookScore[i*25+j-1],ReviewerNumber[i*25+j-1],Comment[i*25+j-1]))
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 214,588评论 6 496
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,456评论 3 389
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 160,146评论 0 350
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,387评论 1 288
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,481评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,510评论 1 293
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,522评论 3 414
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,296评论 0 270
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,745评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,039评论 2 330
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,202评论 1 343
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,901评论 5 338
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,538评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,165评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,415评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,081评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,085评论 2 352

推荐阅读更多精彩内容

  • 序言第1章 Scrapy介绍第2章 理解HTML和XPath第3章 爬虫基础第4章 从Scrapy到移动应用第5章...
    SeanCheney阅读 15,063评论 13 61
  • 发现 关注 消息 iOS 第三方库、插件、知名博客总结 作者大灰狼的小绵羊哥哥关注 2017.06.26 09:4...
    肇东周阅读 12,080评论 4 62
  • Android 自定义View的各种姿势1 Activity的显示之ViewRootImpl详解 Activity...
    passiontim阅读 171,973评论 25 707
  • 初春的被窝 温柔的把我裹挟其中 刚刚好的温度 缠绕在脚踝与腰间 像那芽在温润的土壤中 但万物复苏 我却不想起来
    曹粑阅读 267评论 3 2
  • Provide a surrogate or placeholder for another object to ...
    ilaoke阅读 284评论 0 1