Python: 02 爬虫框架 scrapy

  1. 安装python 依赖 pypiwin32 scrapy
C:\Users\wu-chao> pip install  pypiwin32 pymongo
C:\Users\wu-chao> pip install  scrapy

  1. 切换到项目所在的目录,新建项目
C:\Users\wu-chao>F:
F:> cd mongodb
F:\mongodb> scrapy startproject baidutieba
New Scrapy project 'baidutieba', using template directory 'd:\\python27\\lib\\site-packages\\scrapy\\templates\\project', created in:
    F:\mongodb\baidutieba

You can start your first spider with:
    cd baidutieba
    scrapy genspider example example.com
    
# 项目新建成功!
  1. 接下来书写爬虫逻辑准备:厘清文件执行顺序
start.py[程序入口]
------->a. pipelines.py[实例化 Pipeline]
------->b. spiders/teiba_baidu.py 实例化 Spider 并调用 start_requests
------->c. 回掉函数返回 itrms/item 对象
------->d. Pipeline 对象调用 process_item 处理 item 对象
------->e. 完成
  1. 打开settings.py,启用配置 ITEM_PIPELINES
#取消相应注释,效果如图
ITEM_PIPELINES = {
   'baidutieba.pipelines.BaidutiebaPipeline': 300,
}
  1. 定义items Item 类
import scrapy

class BaidutiebaItem(scrapy.Item):
    largeClassName=scrapy.Field();
    largeClassUrl=scrapy.Field();

    smallClassName=scrapy.Field();
    smallClassUrl=scrapy.Field();
    
  1. 书写 Spider,实现核心爬虫逻辑,注意在回掉函数中返回 item:BaidutiebaItem(largeClassName=largeClassName,largeClassUrl=largeClassUrl
    ,smallClassName=smallClassName,smallClassUrl=smallClassUrl);
# -*- coding: utf-8 -*-
import scrapy

from baidutieba.items import BaidutiebaItem;

class TiebaBaiduSpider(scrapy.Spider):
    name = 'teiba_baidu'
    allowed_domains = ['www.baidu.com']
    start_urls = 'http://tieba.baidu.com/f/index/forumclass'

    def start_requests(self):
        print "-"*10,"爬虫开始","-"*10
        print BaidutiebaItem;

        header = {
            "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/61.0.3163.100 Safari/537.36"}
        yield scrapy.Request(url=self.start_urls,headers=header, meta={'headers': header},callback=self.parseClass)


    def parseClass(self,resp):
        """解析:start_requests 返回的响应"""

        #获取响应字典
        #respDict=resp.__dict__;

        #取得大类
        largeClassList=resp.xpath("//div[@id='right-sec']/div[@class='clearfix']/div[@class='class-item']");
        for largeClass in largeClassList:

            #大类的名称
            largeClassName=largeClass.xpath("a/text()").extract()[0];
            #大类的url
            largeClassUrl="http://tieba.baidu.com"+largeClass.xpath("a/@href").extract()[0];

            #该大类下的小类
            smallClassList=largeClass.xpath("ul/li");
            for smallClass in smallClassList:

                #小类名称
                smallClassName=smallClass.xpath("a/text()").extract()[0];
                #小类url, &pn= 页码
                smallClassUrl="http://tieba.baidu.com"+smallClass.xpath("a/@href").extract()[0]+"&pn=";

                item=BaidutiebaItem(largeClassName=largeClassName,largeClassUrl=largeClassUrl
                                    ,smallClassName=smallClassName,smallClassUrl=smallClassUrl);
                yield item;
  1. 编写 Pipeline ,将item 存到数据库
# -*- coding: utf-8 -*-
import pymongo;


class BaidutiebaPipeline(object):

    def open_spider(self,spider):
        """开"""
        self.client=pymongo.MongoClient('mongodb://localhost:27017')
        print self.client;

    def process_item(self, item, spider):
        """逻辑执行"""
        print "逻辑执行"
        # 将对象转换为字典(键值对,json对象字符串)
        jsonStr=dict(item);

                    #数据库    集合       json字符串作为文档插入
        self.client['Tieba']['datas'].insert(dict(item))

    def close_spider(self, spider):
        """关"""
        self.client.close()
  1. 查询数据库,检查数据:
> use Tieba
> db.datas.find({"smallClassName" : "时尚人物"})
{ "_id" : ObjectId("5a7407489aad34099c14605c"), "smallClassName" : "时尚人物", "largeClassName" : "娱乐明星", "smallClassUrl" : "http://tieba.baidu.com/f/index/forumpark?cn=%E6%97%B6%E5%B0%9A%E4%BA%BA%E7%89%A9&ci=0&pcn=%E5%A8%B1%E4%B9%90%E6%98%8E%E6%98%9F&pci=0&ct=1&pn=", "largeClassUrl" : "http://tieba.baidu.com/f/index/forumpark?pcn=娱乐明星&pci=0&ct=1" }
>

完!

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,053评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,527评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,779评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,685评论 1 276
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,699评论 5 366
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,609评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,989评论 3 396
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,654评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,890评论 1 298
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,634评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,716评论 1 330
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,394评论 4 319
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,976评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,950评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,191评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 44,849评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,458评论 2 342

推荐阅读更多精彩内容