2019-04-08

Nodejs -- 使用koa2搭建数据爬虫

当前爬虫项目开发所需中间件:

  1. cheerio: 则能够对请求结果进行解析,解析方式和jquery的解析方式几乎完全相同 cheerio中文文档 开发参考node - cheerio模块

  2. superagent: 能够实现主动发起get/post/delete等请求

  3. superagent-charset: 解决爬虫数据中文乱码问题,早期版本单独使用,现配合superagent使用

  4. koa2: 搭建服务器环境等等

  5. koa-router: koa路由,用于根据路由访问对应代码块,逻辑编写等作用(把他理解为像日常API接口就好)

  6. knex: 操作数据库,支持多种数据库,这里使用mysql,需要mysql中间件 开发参考knex笔记

搭建开发环境

  • 在项目根目录下npm init一路回车,初始化项目环境,出现package.json文件,然后执行以下命令安装项目依赖
npm i --save cheerio superagent superagent-charset koa-router koa knex mysql
  • 在项目根目录下创建app.js文件,编写coding
const Koa = require('koa'),
    Router = require('koa-router'),
    cheerio = require('cheerio'),
    charset = require('superagent-charset'),
    superagent = charset(require('superagent')),
    app = new Koa(),
    router = new Router();
  • 然后编写路由和搭建服务器环境
router.get('/', function(ctx, next) {
    ctx.body = "搭建好了,开始吧";
});

app
    .use(router.routes())
    .use(router.allowedMethods());

app.listen(3010, () => {
    console.log('[服务已开启,访问地址为:] http://127.0.0.1:3010/');
});

  • 启动服务 node app.js , 打开浏览器http://127.0.0.1:3010/ 就可以访问了 如看到 搭建好了,开始吧 就意味着搭建环境success

爬虫-目标网站

博雅特产网

屏幕快照 2019-04-07 下午11.00.10.png
屏幕快照 2019-04-07 下午11.13.02.png
const Koa = require('koa'),
  Router = require('koa-router'),
  cheerio = require('cheerio'),
  charset = require('superagent-charset'),
  superagent = charset(require('superagent')),
  app = new Koa(),
  router = new Router();
let arr;

router.get('/', (ctx, next) => {
  url = 'http://shop.bytravel.cn/produce/index226.html'; //target地址
  superagent.get(url)
    .charset('gbk')  // 当前页面编码格式
    .buffer(true)
    .end((err, data) => { //页面获取到的数据
      if (err) {
        // return next(err); 
        console.log('页面不存在', err)
      }
      let html = data.text,
        $ = cheerio.load(html, {
          decodeEntities: false,
          ignoreWhitespace: false,
          xmlMode: false,
          lowerCaseTags: false
        }), //用cheerio解析页面数据
      obj = {};
      arr = [];
      // cheerio的使用类似jquery的操作
      $("table tbody").each((index, element) => {
        let $element = $(element);
        $element.find('#tctitle').next().find('a').addClass('link').attr('class', 'link').text('')
        arr.push({
          'title': $element.find('a.blue14b').text(),
          'image': $element.find('#bright img').attr('src'),
          'summary': $element.find('#tctitle').next().text(),
          'is_cgiia': $element.find('#tctitle font').attr('color') === 'green' ? 1 : 0
        })
      })
    })
  ctx.body = arr
  // console.log(arr)
})

app
  .use(router.routes())
  .use(router.allowedMethods());

app.listen(3010, () => {
  console.log('[服务已开启,访问地址为:] http://127.0.0.1:3010/');
});

命令行重启服务node app.js, 页面出现一个数组,有大量数据,success;

  • 注: 如果出现乱码,可能就是代码的编码格式和要抓取目标页面的编码格式不一样导致的,需要留心下;
屏幕快照 2019-04-08 上午12.24.44.png
  • 当前目标网站编码-- gb2312
  • 如果是utf-8 可以 不使用 superagent-charset
  superagent.get(url)
    .charset('gbk')  // 当前页面编码格式
    .buffer(true)
    .end(async (err, data) => { //页面获取到的数据
     ······
    })

分析页面数据

  • 通过cheerio在服务器端需要对DOM进行操作解析页面获取数据
    $("table tbody").each((index, element) => {
        let $element = $(element);
        $element.find('#tctitle').next().find('a').addClass('link').attr('class', 'link').text(''); //去掉简介中链接接【详情】
        arr.push({
            'title': $element.find('a.blue14b').text(),
            'image': $element.find('#bright img').attr('src'),
            'summary': $element.find('#tctitle').next().text(),
            'is_cgiia': $element.find('#tctitle font').attr('color') === 'green' ? 1 : 0
        })
    })

数据库

sudo npm install knex mysql --save

当前自定义数据库native_symbol,数据表 products

CREATE DATABASE native_symbol;
CREATE TABLE `products` (
  `id` int(11) NOT NULL AUTO_INCREMENT COMMENT '编号',
  `title` varchar(100) NOT NULL COMMENT '名称',
  `image` varchar(100) NOT NULL COMMENT '图片',
  `summary` varchar(1000) NOT NULL COMMENT '简介',
  `tags` varchar(100) DEFAULT NULL COMMENT '标签',
  `is_cgiia` tinyint(1) DEFAULT NULL COMMENT '是否是地标特产',
  PRIMARY KEY (`id`)
) ENGINE=InnoDB AUTO_INCREMENT=20 DEFAULT CHARSET=utf8;

  • 初始化(knex配置连接)
var knex = require('knex')({
  client: 'mysql', //指明数据库类型,还可以是pg,sqlite3等等
  connection: { //指明连接参数
    host: '127.0.0.1',
    user: 'root',
    password: 'root',
    database: 'native_symbol'
  },
  debug: true, //指明是否开启debug模式,默认为true表示开启
  pool: { //指明数据库连接池的大小,默认为{min: 2, max: 10}
    min: 0,
    max: 7,
  },
  acquireConnectionTimeout: 10000, //指明连接计时器大小,默认为60000ms
  migrations: {
    tableName: 'migrations' //数据库迁移,可选
  }
});

把数据库类型和连接相关的参数配置好之后,才可以正确的连接到数据库,connection的配置信息通常写到config文件中。

目前node开发服务端最优解决异步回调是 koa2 + es7(async/await)

  • 例如;向users表中写入数据
    // 写入库
    knex('users')
        .returning('id')
        .insert({
            name: 'charblus',
            age: 18,
            sex: 1
        })
        .then(res => {
           console.log('success', res)
        })
    }
    $("table tbody").each((index, element) => {
        let $element = $(element);
        $element.find('#tctitle').next().find('a').addClass('link').attr('class', 'link').text('')
        arr.push({
        'title': $element.find('a.blue14b').text(),
        'image': $element.find('#bright img').attr('src'),
        'summary': $element.find('#tctitle').next().text(),
        'is_cgiia': $element.find('#tctitle font').attr('color') === 'green' ? 1 : 0
        })
    })

    for (let i of arr) {
        const findRes = await knex('products').select().where('title', i.title)
        if (findRes.length) {
        console.log('数据已存在')
        } else {
        // 写入库
        await knex('products')
            .returning('id')
            .insert(i)
            .then(res => {
            console.log('success', res)
            })
        }
    }

这里读写数据库是异步操作 使用async/await, 如上knex读写数据库时都用了await,需要在当前函数前加async

  • 根据目标网站链接的特性,这里加了个定时器,修改URL地址,并重新superagent请求数据,cheerio分析数据,knex存入数据

app.js

const Koa = require('koa'),
  Router = require('koa-router'),
  cheerio = require('cheerio'),
  charset = require('superagent-charset'),
  superagent = charset(require('superagent')),
  app = new Koa(),
  router = new Router();
let arr;

var knex = require('knex')({
  client: 'mysql', //指明数据库类型,还可以是pg,sqlite3等等
  connection: { //指明连接参数
    host: '127.0.0.1',
    user: 'root',
    password: 'root',
    database: 'native_symbol'
  },
  debug: true, //指明是否开启debug模式,默认为true表示开启
  pool: { //指明数据库连接池的大小,默认为{min: 2, max: 10}
    min: 0,
    max: 7,
  },
  acquireConnectionTimeout: 10000, //指明连接计时器大小,默认为60000ms
  migrations: {
    tableName: 'migrations' //数据库迁移,可选
  }
});
var idx = 100;

router.get('/', (ctx, next) => {


  var timer = setInterval(() => {
    idx++;
    if (idx > 10000) {
      clearInterval(timer)
      return
    }
    url = `http://shop.bytravel.cn/produce/index${idx}.html`; //爬虫地址
    timePlay(url)
    console.log('页面抓包记录', idx)
  }, 100);
  timePlay = (url) => {
    superagent.get(url)
      .charset('gbk')
      .buffer(true)
      .end(async (err, data) => { //页面获取到的数据
        // if (err) {
        //     // return next(err); 
        //     console.log('页面不存在', err)
        // }
        let html = data.text,
          $ = cheerio.load(html, {
            decodeEntities: false,
            ignoreWhitespace: false,
            xmlMode: false,
            lowerCaseTags: false
          }), //用cheerio解析页面数据
          obj = {};
        arr = [];

        $("table tbody").each((index, element) => {
          let $element = $(element);
          $element.find('#tctitle').next().find('a').addClass('link').attr('class', 'link').text('')
          arr.push({
            'title': $element.find('a.blue14b').text(),
            'image': $element.find('#bright img').attr('src'),
            'summary': $element.find('#tctitle').next().text(),
            'is_cgiia': $element.find('#tctitle font').attr('color') === 'green' ? 1 : 0
          })
        })

        for (let i of arr) {
          const findRes = await knex('products').select().where('title', i.title)
          if (findRes.length) {
            console.log('数据已存在')
          } else {
            // 写入库
            await knex('products')
              .returning('id')
              .insert(i)
              .then(res => {
                console.log('success', res)
              })
          }
        }
      });
  }
  ctx.body = arr;
  // console.log(arr)
});

app
  .use(router.routes())
  .use(router.allowedMethods());

app.listen(3010, () => {
  console.log('[服务已开启,访问地址为:] http://127.0.0.1:3010/');
});
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 218,036评论 6 506
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,046评论 3 395
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 164,411评论 0 354
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,622评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,661评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,521评论 1 304
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,288评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,200评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,644评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,837评论 3 336
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,953评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,673评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,281评论 3 329
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,889评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,011评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,119评论 3 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,901评论 2 355

推荐阅读更多精彩内容