Golang 简单爬虫实现

本文为转载,原文:Golang 简单爬虫实现

爬虫

介绍

今日在追一篇网络小说,由于个人比较穷,所以看不起正规网站的小说,无奈之下只能看一些免费的网站,我估计免费网站的小说也是爬取来的内容。但是想必大家都清楚,哪些免费的网站是靠什么盈利的。那就是广告啊,铺天盖地的的广告,防不胜防。

那怎么办呢,学了这么久的golang,试试自己爬一下吧。从哪里爬呢,就从免费的网站上爬吧。

准备

在实现爬虫之前,先介绍两个go的库

goquery

做过 Web 开发的,应该都用过或听过 jQuery,它提供了方便的操作 DOM 的 API。使用 Go 语言做服务器端开发,有时候需要解析 HTML 文件,比如抓取网站内容、写一个爬虫等。这时候如果有一个类似 jQuery 的库可以使用,操作 DOM 会很方便,而且,上手也会很快。github.com/PuerkitoBio/goquery 这个库就实现了类似 jQuery 的功能,让你能方便的使用 Go 语言操作 HTML 文档。

另外有一篇很不错的goquery介绍的文章:GO 语言版 JQUERY — GOQUERY。具体使用方法可以参考这篇文章

mahonia

github.com/axgle/mahonia
这个包是golang中的字符集转换用的,因为很多时候,我们爬取的内容的编码格式可能是各种各样的,这里我们需要做一个统一的处理,转成utf-8的格式。

然后使用这个工具包,再进行一些简单的封装,形成以下的方法:

package common

import (
    "github.com/axgle/mahonia"
)

func ConvertToString(src string, srcCode string, tagCode string) string {
    srcCoder := mahonia.NewDecoder(srcCode)
    srcResult := srcCoder.ConvertString(src)
    tagCoder := mahonia.NewDecoder(tagCode)
    _, cdata, _ := tagCoder.Translate([]byte(srcResult), true)
    result := string(cdata)
    return result
}

func GbkToUtf8(src string)string{
    return ConvertToString(src, "gbk", "utf-8")
}

因为很多情况我们遇到的都是gbk格式的编码,所以这里写了个gbk转utf-8的方法

实现爬虫

前面的2个工具已经介绍完了,接下来,就是把他们拼装组合一下,就是我自己的爬虫了。是不是很简单呢?下面就做一些简单的实现吧。

数据库设计

因为本次实现的比较简单,所以数据库的表也不复杂,表结构如下:


数据库表结构

其中,book表中的name字段是由唯一约束的,是为了保证书名唯一,这也是对于书名的简单去重处理。
另外,url表记录的是爬取的url地址信息,status的取值为:-1 -> 失效url, 0 -> 已爬取url, 1 -> 未爬取url。url字段具有唯一约束,避免重复。

爬虫设计

前面已经设计好了数据库,下面就是爬取数据,然后对数据库进行增删改查的操作了。

配置信息

首先,我们需要一些信息进行配置,包括日志,还有数据库:

[log]
level = 1
adapter = file

[db]
host = 127.0.0.1
port = 3306
user = root
password = 654321
name = chain_book
timezone = Asia/Shanghai
prefix = bo_

当然这里的配置模块,以及日志模块是我之前写的一些简单的库里面的功能,可参考:igo

数据库操作

数据库的orm我使用的是beego的orm模块,不熟悉的可以看下beego 官方文档
这里,我仅将init函数贴出来,具体model的操作方法,可看源码:

package models

import(
    "net/url"
    
    "github.com/Chain-Zhang/igo/conf"

    _ "github.com/go-sql-driver/mysql"
    "github.com/astaxie/beego/orm"
)

func init(){
    dbhost := conf.AppConfig.GetString("db.host")
    dbport := conf.AppConfig.GetString("db.port")
    dbuser := conf.AppConfig.GetString("db.user")
    dbpwd := conf.AppConfig.GetString("db.password")
    dbname := conf.AppConfig.GetString("db.name")
    timezone := conf.AppConfig.GetString("db.timezone")
    if dbport == ""{
        dbport = "3306"
    }
    dsn := dbuser + ":" + dbpwd + "@tcp(" + dbhost + ":" + dbport + ")/" + dbname + "?charset=utf8"
    if timezone != "" {
        dsn = dsn + "&loc=" + url.QueryEscape(timezone)
    }
    orm.RegisterDataBase("default","mysql",dsn)
    orm.RegisterModel(new(Book), new(Chapter), new(Url))
}

爬取数据

到此,万事具备只欠东风了。接下来开始爬取数据了。

因为可能会有不同的源数据,那么,html文档的结构肯定也就不一样了。所以,这边就先实现一个爬虫的接口。以及信息的结构体和实例化方法:

package spider

import (
    "errors"
)

type SBook struct{
    Name string
    Image string
    Url string
    Chapters []*SChapter
}

type SChapter struct{
    Title string
    Url string
    Order int
    Pre int
    Next int
    Content string
}

type Spider interface{
    SpiderUrl(url string) error
}

func NewSpider(from string) (Spider, error){
    switch from{
    case "booktxt":
        return new(BookTextSpider), nil
    default:
        return nil, errors.New("系统暂未处理该类型的配置文件")
    }
}

代码中的booktxt的源是www.booktxt.net ,而且,这个Spider函数是针对一本书的爬取(因为我只是爬我自己想看的小说,所有不对全站爬取,不贪心)。

然后就是针对booktxt的爬取操作了。

package spider

import (
    "time"
    "strings"
    "ispider/common"
    "ispider/models"
    "github.com/PuerkitoBio/goquery"
    "github.com/Chain-Zhang/igo/ilog"
)

type BookTextSpider struct{
    
}

func (self *BookTextSpider)SpiderUrl(url string)( error){
    book := SBook{}
    book.Url = url
    doc, err := goquery.NewDocument(url)
    if err != nil{
        return err
    }
    bookname := common.GbkToUtf8(doc.Find("#info h1").Text())
    
    b, err := models.GetBookByName(bookname)
    if err != nil{
        b := models.Book{Name:bookname, CreatedAt:time.Now(), UpdatedAt:time.Now()}
        models.BookAdd(&b)
    }
    doc.Find("#list dd").Each(func (i int, contentSelection *goquery.Selection){
        if i < 9{
            return
        }
        pre := i - 9
        next := i -7
        title := common.GbkToUtf8(contentSelection.Find("a").Text())
        href, _ := contentSelection.Find("a").Attr("href")
        chapter := SChapter{Title:title,Url:"http://www.booktxt.net"+href, Order:i - 8, Pre:pre, Next:next}
        book.Chapters = append(book.Chapters, &chapter)
        u := models.Url{Url:chapter.Url}
        models.UrlAdd(&u)
    })


    
    channel := make(chan struct{}, 100)
    for _, chapter := range book.Chapters{
        channel <- struct{}{}
        go SpiderChapter(b.Id, chapter, channel)
    }
    
    for i := 0; i < 100; i++{
        channel <- struct{}{}
    }
    close(channel)
    return nil
}

type ChanTag struct{}

func SpiderChapter(bookid int, chapter *SChapter, c chan struct{}){
    defer func(){<- c}()
    if models.IsValidUrl(chapter.Url){
        doc, err := goquery.NewDocument(chapter.Url)
        if err != nil{
            ilog.AppLog.Error("get chapter details error: ", err.Error())
            return
        }
        content := doc.Find("#content").Text()
        content = common.GbkToUtf8(content)
        content = strings.Replace(content, "聽", " ", -1)
        ch := models.Chapter{BookId:bookid, Title:chapter.Title, Content:content,Sort:chapter.Order, Pre:chapter.Pre, Next:chapter.Next, CreatedAt:time.Now(),UpdatedAt:time.Now()}
        models.ChapterAdd(&ch)
        models.SpideredUrl(chapter.Url)
    }
}

调用

package main

import (
    "ispider/spider"
    "fmt"
    "github.com/Chain-Zhang/igo/ilog"
)

func main() {
    ilog.AppLog.Info("start")
    s, err := spider.NewSpider("booktxt")
    if err != nil{
        ilog.AppLog.Fatal("new Spider error: ", err.Error())
    }
    err = s.SpiderUrl("http://www.booktxt.net/2_2219/")
    if err != nil{
        ilog.AppLog.Fatal("new Document error: ", err.Error())
    }
    var str string
    fmt.Scan(&str)
}

这样,我们的小说就进到数据库里啦,只要写个前端看就行了,再也不会有广告了。哈哈哈。

源码

本文源码

转载请注明出处:
Golang 简单爬虫实现

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 213,752评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,100评论 3 387
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 159,244评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,099评论 1 286
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,210评论 6 385
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,307评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,346评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,133评论 0 269
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,546评论 1 306
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,849评论 2 328
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,019评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,702评论 4 337
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,331评论 3 319
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,030评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,260评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,871评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,898评论 2 351

推荐阅读更多精彩内容