Go基础编程---web编程

简单web服务器代码

import (
    "fmt"
    "net/http"
    //  "os"
)

func dealWith(res http.ResponseWriter, req *http.Request) {

    res.Write([]byte("ok"))
    // 获取浏览器端的一些数据
    fmt.Println(req.Method) // 请求方法 
    fmt.Println(req.Header) // 请求头,返回的是一个map键值对
    fmt.Println(req.URL)    // 请求资源路径 /
    fmt.Println(req.Body)   // 请求体 {}
}
func main() {
    // 注册处理函数,当有'/'请求进入时出发dealWith函数,函数接收2个参数(res http.ResponseWriter, req *http.Request)
    http.HandleFunc("/", dealWith)
    http.ListenAndServe(":9090", nil) // 开启服务器,监听地址和端口
}

简单客户端代码

import (
    "fmt"
    "net/http"
)

func main() {
    response, err := http.Get("http://www.baidu.com")
    if err != nil {
        return
    }

    defer response.Body.Close()

    fmt.Println(response.Status)     // 返回状态信息  200 ok
    fmt.Println(response.StatusCode) //返回状态码  200
    fmt.Println(response.Header)     //返回响应头 一个map类型对象
    fmt.Println(response.Body)       // 返回一个内存地址,是一个io需要读

    //  定一个buffer
    buf := make([]byte, 1024*4)
    //  定义一个string
    var str string
    for {
        n, err := response.Body.Read(buf)
        if n == 0 {
            fmt.Println(err)
            break
        }
        str += string(buf[:n])
    }
    fmt.Println(str)
}

并发爬取百度贴吧的页面

package main

import (
    "fmt"
    "io"
    "net/http"
    "os"
    "strconv"
)

func main() {
    var startNum int
    var endNum int
    fmt.Println("input the start page number")
    fmt.Scan(&startNum)
    fmt.Println("input the end page number")
    fmt.Scan(&endNum)

    fmt.Println(startNum, endNum)
    dealWith(startNum, endNum)
}
func crayp(i int, ch chan int) {
    url := "https://tieba.baidu.com/f?kw=%E7%BE%8E%E5%A5%B3&ie=utf-8&pn="
    url += strconv.Itoa((i - 1) * 50)
    fmt.Printf("start to crapy ,the url is %s \n", url)

    result, err := sendHttp(url)
    if err != nil {
        fmt.Println("the %d is caryp err", i)
        return
    }
    // write to a file
    f, err1 := os.Create(strconv.Itoa(i) + ".html")
    if err1 != nil {
        fmt.Println("the %d is write err", i)
        return
    }
    f.WriteString(result)
    f.Close()
    ch <- i

}
func dealWith(s, e int) {
    ch := make(chan int)
    for i := s; i <= e; i++ {
        go crayp(i, ch)
    }
    for i := s; i <= e; i++ {
        fmt.Println("has scrapy filished", <-ch)
    }
}
func sendHttp(url string) (string, error) {
    response, err := http.Get(url)
    if err != nil {
        return "", err
    }
    defer response.Body.Close()

    // read the body content,first create a buffer to recive
    buf := make([]byte, 1024*4)
    result := ""
    for {
        n, err := response.Body.Read(buf)
        if n == 0 {
            if err != io.EOF {
                fmt.Println("the error is", err)
                break
            } else {
                fmt.Println("crayp is end")
                break
            }
        }
        result += string(buf[:n])
    }
    return result, nil
}

并发爬虫爬取段子

package main

import (
    "fmt"
    "io"
    "net/http"
    "os"
    "regexp"
    "strconv"
    "strings"
)

func main() {
    // 输入要爬的启始和结束页面
    var startPag, endPage int
    fmt.Println("输入起始页码:")
    fmt.Scan(&startPag)
    fmt.Println("输入结束页码:")
    fmt.Scan(&endPage)

    doWork(startPag, endPage)
}
func doWork(start, end int) {
    // 创建channel
    ch := make(chan int)
    for i := start; i <= end; i++ {
        go spiderPage(i, ch)
    }
    for j := start; j <= end; j++ {
        <-ch
    }
    fmt.Println("全部爬取完成")
}
func spiderPage(i int, ch chan int) {
    url := "https://www.pengfu.com/xiaohua_" + strconv.Itoa(i) + ".html"
    fmt.Println("正在爬取页面:", url)
    result, err := sendHttpGetData(url)
    if err != nil {
        fmt.Println("爬取页面错误")
        return
    }
    // 创建正则规则  查找结果
    // 懒惰匹配, 不加?则为贪婪匹配,默认为贪婪匹配
    reg := regexp.MustCompile(`<h1 class="dp-b"><a href="(?s:(.*?))" target="_blank">`)
    subUrlSlice := searchAll(result, reg)

    // 遍历每个子笑话的url,分别去发送请求,获取内容和标题
    // 将内容和标题放置在map中
    //  var joyContentMap map[string]string
    joyContentMap := make(map[string]string, 20) //使用map导致标题相同的会被覆盖,可以使用切片去做
    chs := make(chan int)

    for index, v := range subUrlSlice {
        fmt.Println(v)
        go spiderJoy(index, v, joyContentMap, chs)
    }
    for i := 0; i < len(subUrlSlice); i++ {
        <-chs
    }
    writeToFlie(i, joyContentMap, ch)

}
func spiderJoy(index int, url string, maps map[string]string, chs chan int) {
    joyResult, err1 := sendHttpGetData(url)
    if err1 != nil {
        fmt.Println("爬取笑话页面错误", err1)
        return
    }
    // 创建正则匹配 标题
    regTitle := regexp.MustCompile(`<h1>(.*?)</h1>`)
    // 创建正则匹配 内容
    regContent := regexp.MustCompile(`<div class="content-txt pt10">(?s:(.*?))<a id="prev"`)
    title := searchOne(joyResult, regTitle)
    content := searchOne(joyResult, regContent)
    maps[title] = content

    //  fmt.Printf("#%v#\n", title)
    //  fmt.Printf("#%v#\n", content)
    chs <- index
}
func sendHttpGetData(url string) (string, error) {
    response, err := http.Get(url)
    if err != nil {
        //      fmt.Println("响应错误!")
        return "", err
    }
    defer response.Body.Close()
    // 读取body的内容
    buf := make([]byte, 1024*2)
    result := ""
    for {
        n, err := response.Body.Read(buf)
        if n == 0 {
            if err != io.EOF {
                return "", err
            } else {
                fmt.Println("读取响应内容完毕...")
                return result, nil
            }
        }
        result += string(buf[:n])
    }
}
func searchOne(str string, reg *regexp.Regexp) string {
    slice := reg.FindStringSubmatch(str)
    // 去掉空格和换行
    slice[1] = strings.Replace(slice[1], "\n", "", -1)
    slice[1] = strings.Replace(slice[1], "\t", "", -1)
    slice[1] = strings.Replace(slice[1], "<br />", "", -1)
    slice[1] = strings.Replace(slice[1], "<br>", "", -1)
    return slice[1]
}
func searchAll(str string, reg *regexp.Regexp) []string {
    tempSlice := reg.FindAllStringSubmatch(str, -1) // [[匹配上的内容 分组的内容],[]]
    var strSlice []string                           // 不能定长
    for _, v := range tempSlice {
        strSlice = append(strSlice, v[1])
    }
    return strSlice
}
func writeToFlie(name int, content map[string]string, ch chan int) {
    fmt.Print("---------------------------------------------------------\n")
    f, err := os.Create(strconv.Itoa(name) + ".txt")
    defer f.Close()
    if err != nil {
        return
    }
    for i, v := range content {
        f.WriteString(i + "\n")
        f.WriteString(v + "\n")
        f.WriteString("=========" + "\n")
    }
    ch <- name
}

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 215,539评论 6 497
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,911评论 3 391
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 161,337评论 0 351
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,723评论 1 290
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,795评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,762评论 1 294
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,742评论 3 416
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,508评论 0 271
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,954评论 1 308
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,247评论 2 331
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,404评论 1 345
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,104评论 5 340
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,736评论 3 324
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,352评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,557评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,371评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,292评论 2 352

推荐阅读更多精彩内容