spider(爬虫)

spider(爬虫)

推荐抓取工具:火车采集器\火车头采集器

爬虫抓取网页

    //node 中http模块,可以用来开启服务器(http.createServer),也可以用来开启客户端(http.request)
    //网页抓取核心代码如下 --> server.js
    const http = require('http');
    const https = require('https');
    const urllib = require('url');
    const fs = require('fs');
    const pathlib = require('path');
    const assert = require('assert');
    /*
    封装http.request,用来自动分别http与https
    url --> 网址
    headers --> options需要的headers
    */
    function reqUrl(url,headers){
        //使用url模块解析url,得到url对象
        let urlObj = urllib.parse(url);
        //用来获取http或者https
        let httpMode = null;
        if(urlObj.protocol == 'http:'){
            httpMode=http;
        }else if(urlObj.protocol == 'https:'){
            httpMode=https;
        }else{
            console.log(urlObj.protocol);
            throw new Error('错误');
        }
        //http.request的optios参数
        const options = {
            host:urlObj.host,//要爬取的网站
            path:urlObj.path,//要爬取的路径
            header:headers//某些网站爬取需要的headers
        };
        //因http.request是个异步函数,所以此处return一个promise
        return new Promise((resolve,reject)=>{
            //http.request,作为一个客户端向服务端发起请求
            let req = httpMode.request(options,res=>{
                // res.statusCode作为访问成功与否的标准
                if(res.statusCode>=200&&res.statusCode<300||res.statusCode==304){
                    let arr = [];
                    res.on('data',function (data){
                        arr.push(data);
                    });
                    res.on('end',function (){
                        let buffer = Buffer.concat(arr);
                        //接收处理结果交由resolve()
                        resolve({
                            statusCode:200,
                            body:      buffer,
                            headers:   res.headers
                        })
                    })
                //如果是301或者302,也是成功这是需要跳转   
                }else if(res.statusCode==301||res.statusCode==302){
                    resolve({
                        statusCode:res.statusCode,
                        body:      null,
                        headers:   res.headers
                    })
                //出错了
                }else{
                reject({
                    statusCode:res.statusCode,
                    body:      null,
                    headers:   res.headers
                });
                }
            });
            //请求的时候就出错了,例如网址不存在
            req.on('error',err=>{
                console.log('error',err);
            });
            req.write('');
            //end()表示正式开始请求
            req.end();
        })
    }

    async function req(url){
        try{
            //循环处理多次301或者302的情况
            while(true){
                let {statusCode,body,headers} = await reqUrl(url);
                console.log(statusCode,body,headers);
                
                if(statusCode==200){
                    return {body,headers}//成功之后 退出循环
                }else{
                    //let {statusCode,body,headers:head} = await reqUrl(headers.location);
                    assert(headers.location);//此处使用断言一定有此属性
                    url=headers.location;//不成功将url重新赋值,继续循环
                }
            }
        }catch(e){
            console.log('进到catch',e);
        }
    }
    //因req是一个async函数,所以此处也需要使用async函数接收数据,此处使用了自调用函数
    (async ()=>{
        let {body,headers} = await req('http://www.tmall.com');
        fs.writeFile('spider',body,err=>{
            if(err){
                console.log('写入失败');
                
            }else{
                console.log('写入完成');
                
            }
        })
    })()

jsdom.js

    原因:因爬虫抓取的是html网页,所以需要进行数据解析,jsdom第三方模块可以实现
    作用:将html反向解析成dom对象
    安装:cnpm i jsdom -D
    使用:
        const JSDOM = require('jsdom').JSDOM;
        const fs=require('fs');
        fs.readFile('test.html', (err, buffer)=>{
            if(err){
                console.log('读取失败');
            }else{
                let html=buffer.toString();
                //创建jsdom对象,并将需要解析的对象传参进去
                let jsdom=new JSDOM(html);
                //获取dom对象
                let document=jsdom.window.document;
                //创建$
                let $=document.querySelectorAll.bind(document);
                //按照JS操作dom对象方式进行操作即可
                let oTxt=$('input.txt1')[0];
                console.log(oTxt.value);
            }
        });

爬虫抓取数据

1. 使用爬虫抓取网页;(此处以天猫手机网页为例,部分网站数据应该是抓取shr数据)  
2. 使用jsdom对网页进行解析
3. 封装存库,继续向下抓取,等等等操作
4. 详见4-19.zip --> tmall_shouji_spider2.js
某些页面编码是gbk然而node本身不认gbk编码,所以buffer.toString('gbk')指定编码的方法不可用,这里需要使用第三方gbk模块;
cnpm i gbk -D
const gbk=require('gbk');
gbk.toString('utf-8',buffer);//使用gbk模块将buffer编码变成utf-8
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 225,208评论 6 524
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 96,502评论 3 405
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 172,496评论 0 370
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 61,176评论 1 302
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 70,185评论 6 401
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 53,630评论 1 316
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 41,992评论 3 431
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 40,973评论 0 280
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 47,510评论 1 325
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 39,546评论 3 347
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 41,659评论 1 355
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 37,250评论 5 351
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 42,990评论 3 340
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 33,421评论 0 25
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 34,569评论 1 277
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 50,238评论 3 382
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 46,732评论 2 366

推荐阅读更多精彩内容

  • Python版本管理:pyenv和pyenv-virtualenvScrapy爬虫入门教程一 安装和基本使用Scr...
    inke阅读 35,467评论 7 93
  • 为什么要做爬虫? 都说现在是"大数据时代",那数据从何而来? 企业产生的用户数据:百度指数 http://inde...
    錦魚阅读 1,029评论 0 0
  • 我们一般比较常用的爬虫而且比较强大的框架。今天就简单的介绍一下爬虫的框架--scrapy。首先去看一下他的架构流程...
    Franckisses阅读 424评论 0 0
  • QUANTAXIS 爬虫部分 目前的QUANTAXIS爬虫是用python的scrapy框架写的,为了运行Java...
    yutiansut阅读 856评论 0 1
  • 我们在写爬虫的时候,首先要找到一个可以调用的URL来获取服务器的资源。逻辑就是我们通过这个URL来发起请求。来获取...
    Franckisses阅读 1,588评论 0 0