Node学习篇-爬虫

首先我们默认你已经安装node开发环境,node开发IDE (什么webstrom vscode sublime网上很多工具不多做赘述)。以及npm(NodeJS安装包管理工具)

这里我们测试爬虫百家号的不同tab下的新闻列表

image.png

爬虫的基本思路
  • 通过chrom浏览器请求网站
  • 检查元素分析数据的结构
  • 通过network分析点击tab网站对应的请求url
  • 获取所有tab对应的url进行并发请求
  • 解析源码获取对应的新闻数据
  • 包装成我们想要的数据结构
image.png

image.png
创建demo cd到一个空文件夹

1.初始化项目

npm init

2.创建爬虫文件fetch.js
3.通过npm安装superagent、cheerio、async以及url爬虫需要的技术框架

npm install superagent cheerio async url
开始编写爬虫代码

1.首先要引用我们需要的技术框架

//请求网址
var request = require('superagent');
//解析网页源码
var cheerio = require('cheerio');
//控制并发数
var async = require('async');
//url处理
var URL = require('url');
//文件管理
var fs = require('fs');
var path = require('path');

2.第一次请求百家号获取不同tab对应的url

//要爬虫的网站
var bjhVideoUrl = 'https://baijia.baidu.com/';
function startFetch() {
    request
    .get(bjhVideoUrl)
    .end((err,res)=> {
        if(err) {
            console.log(err);
            return;
        }
       //解析源码获取url
        decodeHeaderUrl(res);
    });
}

3.根据源码解析网址获取不同url 以及并发请求子tab对应的网页数据

function decodeHeaderUrl(res){
    var headerUrls = [];
    var $ = cheerio.load(res.text);
    $('#header-wrapper .bjh-header-content .bjh-header-list li a').each((idx,element)=> {
        var href = $(element).attr('href');
        var title = $(element).text().trim();
        var headerJson = {
            'href':href,
            'title':title
        };
        titleJsons.push(headerJson);
        var url = URL.resolve(bjhVideoUrl,href);
        console.log(url);
        headerUrls.push(url);
    });
//通过语法糖async并发请求 headerurls:url数组,2:并发数
    async.mapLimit(headerUrls,2,function(url,cb){
        requestByTitle(url,cb);
    },function(err,result){//全部请求结束之后返回的包装数据数组
        console.log('fetch data success! fetch data count ' + result.length);
        try {
            //数据保存到db.json文件
            fs.writeFileSync(path.join(__dirname,'db.json'),JSON.stringify(result,null,2),{'flag':'a'});
            console.log('save fetch data to db.json success!');
        } catch (error) {
            console.log('save fetch data to db.json fail!');
        }
    });
}

4.解析子tab 来获取我们要的新闻列表数据


        var $ = cheerio.load(res.text);
        var artEle = $('#articleList')
        artEle.children().each((idx,element)=> {
            var className = $(element).attr('class');
            if (className === 'article-info'){
                var imgEle = $(element).find('img');
                var imgSrc = $(imgEle).attr('src');
                var titleEle = $(element).find('.title').children()[0];
                var title = $(titleEle).text().trim();
                var authorEle = $(element).find('.author').children()[0];
                var author = $(authorEle).text().trim();
                var otherEle = $(element).find('.author').children()[1];
                var other = $(otherEle).text().trim();
                var titleJson = {
                    'type':className,
                    'images':[imgSrc],
                    'title':title,
                    'author':author,
                    'other':other
                }
                videoJsons.push(titleJson);

5.包装我们想要的数据结构

//根据不同tab 对应不同的数据列表
function createResult(url,videos) {
    var urlParse = URL.parse(url);
    var index = 0;
    if (urlParse.query) {
        index = parseInt(urlParse.query.substr(4,1));
    }
    index = index > 0 ?index : 0;
    var titleJson = titleJsons[index];
    var videoJson = {
        'title':titleJson['title'],
        'videos':videos
    }
    return videoJson;
}

6.fetch.js爬虫代码编写完毕,接下来执行fetch文件

node fetch

返回结果如下:


image.png

数据被保存到db.json文件如下:


image.png

到此爬虫项目就结束了,源码:github

本次爬虫demo使用的相关框架:

*superagent:superagent 是一个轻量的,渐进式的ajax api,可读性好,学习曲线低,内部依赖nodejs原生的请求api。采用链式编程进行方法的调用,通俗易懂,便于理解。我们通过它请求网址获取网页源码。

POST请求用例:

superagent
   .post('/api/pet')
   .send({ name: 'Manny', species: 'cat' })
   .set('X-API-Key', 'foobar')
   .set('Accept', 'application/json')
   .end(function(res){
     if (res.ok) {
       alert('yay got ' + JSON.stringify(res.body));
     } else {
       alert('Oh no! error ' + res.text);
     }
   });

详细介绍:CNode中文社区

*cheeio:cheerio是nodejs的抓取页面模块,为服务器特别定制的,快速、灵活、实施的jQuery核心实现。适合各种Web爬虫程序。会玩jQuery的朋友相信看一眼就会使用了。通过它来解析我们的网页源码获取我们想要的数据内容。

获取数据用例:

 var headerUrls = [];
    var $ = cheerio.load(res.text);
    $('#header-wrapper .bjh-header-content .bjh-header-list li a').each((idx,element)=> {
        var href = $(element).attr('href');
        var title = $(element).text().trim();
        var headerJson = {
            'href':href,
            'title':title
        };
        titleJsons.push(headerJson);
        var url = URL.resolve(bjhVideoUrl,href);
        console.log(url);
        headerUrls.push(url);
    });

更多实用方法请上:CNode中文社区

*async:Async 模块是比较有名的异步解决方案,在爬虫过程中如果并发请求较大,有可能会被网站认为恶意攻击,所以我们通过async的eachLimit技术来控制并发数来减少风险。

并发数控制用例:

 async.mapLimit(headerUrls,2,function(url,cb){
        requestByTitle(url,cb);
    },function(err,result){
        console.log('fetch data success! fetch data count ' + result.length);
        try {
            fs.writeFileSync(path.join(__dirname,'db.json'),JSON.stringify(result,null,2),{'flag':'a'});
            console.log('save fetch data to db.json success!');
        } catch (error) {
            console.log('save fetch data to db.json fail!');
        }
    });

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 214,444评论 6 496
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,421评论 3 389
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 160,036评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,363评论 1 288
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,460评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,502评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,511评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,280评论 0 270
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,736评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,014评论 2 328
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,190评论 1 342
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,848评论 5 338
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,531评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,159评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,411评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,067评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,078评论 2 352

推荐阅读更多精彩内容