使用Java写一个简单爬虫爬取单页面

使用Java爬虫爬取人民日报公众号页面图片

使用Java框架Jsoup和HttpClient实现,先看代码
爬取目标页面

1、使用Maven构建一个普通Java工程

加入依赖:

        <!--用来解析Html页面的第三方Jar-->
        <dependency>
            <groupId>org.jsoup</groupId>
            <artifactId>jsoup</artifactId>
            <version>1.11.2</version>
        </dependency>
        <!--用来模拟Http客户端的第三方Jar-->
        <dependency>
            <groupId>org.apache.httpcomponents</groupId>
            <artifactId>httpclient</artifactId>
            <version>4.3.1</version>
        </dependency>

2、第一个类,开始爬取入口类

package com.yomihu.spider;

import com.yomihu.parse.ParseHtml;
import org.apache.http.client.methods.CloseableHttpResponse;
import org.apache.http.client.methods.HttpGet;
import org.apache.http.impl.client.CloseableHttpClient;
import org.apache.http.impl.client.HttpClients;
import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;

import java.io.File;
import java.io.FileOutputStream;
import java.io.InputStream;
import java.util.ArrayList;
import java.util.List;

/**
 * mini-spider 单页面爬取启动类
 *
 * @Author 孙龙
 * @Date 2018/1/28
 */
public class SinglePageSpiderStarter {
    /**
     * 开始页面的URL(一个微信公众号的页面)
     */
    private static final String START_URL = "https://mp.weixin.qq.com/s/zzkEWbcb81pbsr-PJvVzQA";
   /**
     * 目标图片存放目录
     */
    private static final String IMG_SAVE_PATH = "E:/jj";

    public static void main(String[] args) throws Exception {
        //使用Jsoup将目标Url的Html页面获取为Document变量
        Document rootdocument = Jsoup.connect(START_URL).get();

        List<String> urlList = new ArrayList<String>();
        //将页面中的目标Url解析为列表
        ParseHtml.singlePageParseImg(rootdocument, urlList);
        //初始化HttpClient对象
        CloseableHttpClient httpClient = HttpClients.createDefault();
        //控制图片名称的变量
        int i = 0;
        for (String url : urlList) {
            HttpGet httpGet = new HttpGet(url);
            CloseableHttpResponse response = httpClient.execute(httpGet);

            InputStream inputStream = response.getEntity().getContent();
            //保存图片
            File file = new File(IMG_SAVE_PATH);
            if (!file.exists()) {
                //不存在就创建该目录
                file.mkdirs();
            }
            String imgName = IMG_SAVE_PATH + File.separator + "test" + i + ".jpg";
            //保存图片
            FileOutputStream fos = new FileOutputStream(imgName);
            i++;
            byte[] data = new byte[1024];
            int len;
            while ((len = inputStream.read(data)) != -1) {
                fos.write(data, 0, len);
            }
            //释放资源
            response.close();
        }
        httpClient.close();

    }
}

3、第二个类,解析Html页面

package com.yomihu.parse;

import org.jsoup.nodes.Document;
import org.jsoup.nodes.Element;
import org.jsoup.select.Elements;

import java.io.IOException;
import java.util.List;

/**
 * mini-spider Html页面结构解析
 *
 * @Author 孙龙
 * @Date 2018/1/28
 */
public class ParseHtml {

    /**
     * 微信单页面结构解析,这里我们只要将页面中的图片对应的URL取出
     * (方法中的解析逻辑是根据分析页面结构和各元素的特征来解析的)
     *
     * @param document
     * @param urls
     */
    public static void singlePageParseImg(Document document, List<String> urls) {

        Elements divElements = document.select("[class=rich_media_content]");

        Elements pElements = divElements.select("p");
        Elements imgElements = pElements.select("img");
        for (Element imgElement : imgElements) {
            urls.add(imgElement.attr("data-src"));
             //打印目标数据,查看是否正确
        }
        Elements spanElements = pElements.select("span");

        Elements imgElemnets = spanElements.select("img");
        for (Element imgElement : imgElemnets) {
            urls.add(imgElement.attr("data-src"));
            //打印目标数据,查看是否正确
            System.out.println(imgElement.attr("data-src"));
        }
    }
}

4、启动第一个类中的main函数

查看我们爬取的目标图片是否已经存在目录中。

总结

其实爬虫并不难写,首先要先知道爬虫是什么东西。爬虫就是使用程序模拟一个浏览器对页面上的数据进行不断的连接获取解析并保存;这里我只是使用Apache开源的成熟框架进行开发,实现了一个简单的单页面抓取,同样的多页面循环抓取就需要在程序中做不断的迭代,并不断的更新爬取目标;即在使用程序解析页面的时候将下一个目标页的Url保存在待爬取的列表中。
爬虫并不难实现,难的是对目标页面分析,找到页面中个元素之间的规律,对页面进行规律性解析,并获取到我们想要的数据;当然更难的是有些大网站服务器上的反爬虫机制。

接下来我会实现一个多页面循环抓取的Demo
示例代码

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,324评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,303评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,192评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,555评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,569评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,566评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,927评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,583评论 0 257
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,827评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,590评论 2 320
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,669评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,365评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,941评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,928评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,159评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,880评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,399评论 2 342

推荐阅读更多精彩内容

  • Android 自定义View的各种姿势1 Activity的显示之ViewRootImpl详解 Activity...
    passiontim阅读 171,392评论 25 707
  • 于梁梁梁阅读 138评论 0 0
  • 想写封信给你 说‘秋天该很好 我喜欢这样的秋 关于一个人的 还有一个人,依然有 很多人,很多人的秋天 破碎的记忆…...
    Mino_深海老怪物阅读 158评论 0 1
  • 一 好吧。 叹了口气,醒来的时候,她努力揉了揉眼睛,然后凝视着周六窗外明媚的蓝天,又重新回到两眼无神地状态扫视了一...
    张瀚允bling阅读 225评论 0 2
  • 第二天 大清早就情绪低落。有什么事情是一碗米粉搞不定的,一碗搞不定,那就接连吃上几天。。。 天气真的很热,风也是热...
    流颏阅读 137评论 0 0