定时调度框架:Elastic-Job

(1)简介

elastic-job 是由当当网基于quartz 二次开发之后的分布式调度解决方案 , 由两个相对独立的子项目Elastic-Job-Lite和Elastic-Job-Cloud组成 。

elastic-job主要的设计理念是无中心化的分布式定时调度框架,思路来源于Quartz的基于数据库的高可用方案。但数据库没有分布式协调功能,所以在高可用方案的基础上增加了弹性扩容和数据分片的思路,以便于更大限度的利用分布式服务器的资源。

elastic-job是当当网基于Zookepper 、Quartz开源的一个java分布式定时任务,解决了Quartz不支持分布式的弊端.

elastic-job由两个相互独立子项目Elastic-Job-Lite 、 Elastic-Job-Cloud组成.

Elastic-Job-Lite定位为轻量级无中心化解决方案,使用jar包的形式提供最轻量级的分布式任务的协调服务,外部依赖仅Zookeeper

(2)Thread

package com.zhaoyang.demo;

import java.io.IOException;

import java.time.LocalDateTime;

public class A {

    // 每隔3s执行一次。

    public static void main(String[] args) throws IOException {

        new Thread(() -> {

            while (true) {

                try {

                    Thread.sleep(3000);

                } catch (InterruptedException e) {

                    e.printStackTrace();

                }

                System.out.println("执行任务"+ LocalDateTime.now());

            }

        }).start();

        System.in.read();

    }

}

(3)Timer

package com.zhaoyang.demo;

import java.time.LocalDateTime;

import java.util.Timer;

import java.util.TimerTask;

public class B {

    // 5s之后开始执行,后续每隔3s执行一次。

    public static void main(String[] args) {

        Timer timer = new Timer();

        timer.schedule(new TimerTask() {

            @Override

            public void run() {

                System.out.println("执行任务"+ LocalDateTime.now());

            }

        }, 5000,3000);

    }

}

(4)ScheduledThreadPoolExecutor

package com.zhaoyang.demo;

import java.time.LocalDateTime;

import java.util.concurrent.ScheduledThreadPoolExecutor;

import java.util.concurrent.TimeUnit;

public class C {

    // 5s之后开始执行,后续每隔3s执行一次。

    public static void main(String[] args) {

        ScheduledThreadPoolExecutor executor = new ScheduledThreadPoolExecutor(10);

        executor.scheduleWithFixedDelay(new Runnable() {

            @Override

            public void run() {

                System.out.println("执行任务"+ LocalDateTime.now());

            }

        }, 5, 3, TimeUnit.SECONDS);

    }

}

(5)Spring Task

package com.zhaoyang.demo;

import org.springframework.scheduling.annotation.Scheduled;

import org.springframework.stereotype.Component;

/**

* 以上几种方式都有几个共同的缺点:

*

* 单线程执行,若前一个任务执行时间较长,会导致下一个任务饥饿阻塞

* 无分布式协调机制,如果只有一个节点就会单点风险,如果部署多个节点就会有并发执行的问题

* 随着任务规模增多,无统一视角对其进行任务进度进行追踪和管控

* 功能比较简单,没有超时、重试等高级特性

*/

@Component

public class MySpringTask {

    @Scheduled(cron = "0/5 * * * * ?")

    public void test(){

        System.out.println("执行SpringTask");

    }

}

(6)SimpleJob简单作业-基础

package com.zhaoyang.elastic;

import org.apache.shardingsphere.elasticjob.api.ShardingContext;

import org.apache.shardingsphere.elasticjob.simple.job.SimpleJob;

import java.time.LocalDateTime;

// (1)SimpleJob-简单作业

public class MySimpleJob implements SimpleJob {

    @Override

    public void execute(ShardingContext context) {

        System.out.println("执行任务"+ LocalDateTime.now());

    }

}

package com.zhaoyang.elastic;

import org.apache.shardingsphere.elasticjob.api.ShardingContext;

import org.apache.shardingsphere.elasticjob.simple.job.SimpleJob;

import org.springframework.stereotype.Component;

import java.time.LocalDateTime;

// (2)SimpleJob-简单作业:集成springboot

@Component

public class MySimpleJob2 implements SimpleJob {

    @Override

    public void execute(ShardingContext context) {

        System.out.println("执行任务2"+ LocalDateTime.now());

    }

}

(7)DataflowJob数据流作业-基础

package com.zhaoyang.elastic;

import org.apache.shardingsphere.elasticjob.api.ShardingContext;

import org.apache.shardingsphere.elasticjob.dataflow.job.DataflowJob;

import java.time.LocalDateTime;

import java.util.ArrayList;

import java.util.List;

// (2)DataflowJob-数据流作业

public class MyDataflowJob implements DataflowJob<String> {

    @Override

    public List<String> fetchData(ShardingContext shardingContext) {

        List<String> data = new ArrayList<>();

        data.add("数据1");

        data.add("数据2");

        data.add("数据3");

        data.add("数据4");

        return data;

    }

    @Override

    public void processData(ShardingContext shardingContext, List<String> list) {

        System.out.println(LocalDateTime.now()+"处理数据:"+list);

    }

}

(8)SimpleJob简单作业-进阶

package com.zhaoyang;

import com.zhaoyang.elastic.MySimpleJob;

import org.apache.shardingsphere.elasticjob.api.JobConfiguration;

import org.apache.shardingsphere.elasticjob.lite.api.bootstrap.impl.ScheduleJobBootstrap;

import org.apache.shardingsphere.elasticjob.reg.base.CoordinatorRegistryCenter;

import org.apache.shardingsphere.elasticjob.reg.zookeeper.ZookeeperConfiguration;

import org.apache.shardingsphere.elasticjob.reg.zookeeper.ZookeeperRegistryCenter;

// (1)SimpleJob-简单作业

public class TestMySimpleJob {

    public static void main(String[] args) {

        new ScheduleJobBootstrap(createRegistryCenter(), new MySimpleJob(), createJobConfiguration()).schedule();

    }

    // 连接Zookeeper

    private static CoordinatorRegistryCenter createRegistryCenter() {

        CoordinatorRegistryCenter regCenter = new ZookeeperRegistryCenter(new ZookeeperConfiguration("localhost:2181", "my-job"));

        regCenter.init();

        return regCenter;

    }

    // 创建作业配置

    private static JobConfiguration createJobConfiguration() {

        return JobConfiguration.newBuilder("MySimpleJob", 1)

                .cron("0/3 * * * * ?")

                .build();

    }

}

(9)DataflowJob数据流作业-进阶

package com.zhaoyang;

import com.zhaoyang.elastic.MyDataflowJob;

import org.apache.shardingsphere.elasticjob.api.JobConfiguration;

import org.apache.shardingsphere.elasticjob.lite.api.bootstrap.impl.ScheduleJobBootstrap;

import org.apache.shardingsphere.elasticjob.reg.base.CoordinatorRegistryCenter;

import org.apache.shardingsphere.elasticjob.reg.zookeeper.ZookeeperConfiguration;

import org.apache.shardingsphere.elasticjob.reg.zookeeper.ZookeeperRegistryCenter;

/**

*

* (2)DataflowJob-数据流作业

*

* streaming.process=true,表示开启流式处理,默认为false

* overwrite=true,表示要重写Job配置,如果不设置这个,新修改的或新增的配置将不会生效

* 一旦这么做了之后,我们会发现以上代码会不停的执行任务,而不是每隔3s执行一次了。

*

* 这是因为,如果开启流式处理,则作业只有在 fetchData 方法的返回值为 null 或集合容量为空时,才停止抓取,否则作业将一直运行下去; 如果关闭流式处理,则作业只会在每次作业执行过程中执行一次 fetchData 和 processData 方法,随即完成本次作业。

*

* 所以,以上代码每次调用 fetchData 方法都能获取到数据,所以会一直执行。

*

* 如果采用流式作业处理方式,那么就需要业务代理自己来控制什么时候从fetchData获取不到数据,从而停止本次任务的执行。

*/

public class TestMyDataflowJob {

    public static void main(String[] args) {

        new ScheduleJobBootstrap(createRegistryCenter(), new MyDataflowJob(), createJobConfiguration()).schedule();

    }

    // 连接Zookeeper

    private static CoordinatorRegistryCenter createRegistryCenter() {

        CoordinatorRegistryCenter regCenter = new ZookeeperRegistryCenter(new ZookeeperConfiguration("localhost:2181", "my-job"));

        regCenter.init();

        return regCenter;

    }

    // 创建作业配置

    private static JobConfiguration createJobConfiguration() {

        return JobConfiguration.newBuilder("MyDataflowJob", 1)

                .cron("0/3 * * * * ?")

                .build();

    }

}

(10)ScheduleJobBootstrap脚本作业

package com.zhaoyang;

import org.apache.shardingsphere.elasticjob.api.JobConfiguration;

import org.apache.shardingsphere.elasticjob.lite.api.bootstrap.impl.ScheduleJobBootstrap;

import org.apache.shardingsphere.elasticjob.reg.base.CoordinatorRegistryCenter;

import org.apache.shardingsphere.elasticjob.reg.zookeeper.ZookeeperConfiguration;

import org.apache.shardingsphere.elasticjob.reg.zookeeper.ZookeeperRegistryCenter;

import org.apache.shardingsphere.elasticjob.script.props.ScriptJobProperties;

// (3)脚本作业

/**

* 注意ScheduleJobBootstrap的第二个参数为"SCRIPT",另外通过设置script.command.line来配置要执行的脚本。

*

* 其底层其实就是利用的CommandLine来执行的命令,所以只要在你机器上能执行的命令,那么就可以在这里进行设置并执行。

*/

public class TestScriptJob {

    public static void main(String[] args) {

        new ScheduleJobBootstrap(createRegistryCenter(), "SCRIPT", createJobConfiguration()).schedule();

    }

    private static CoordinatorRegistryCenter createRegistryCenter() {

        CoordinatorRegistryCenter regCenter = new ZookeeperRegistryCenter(new ZookeeperConfiguration("localhost:2181", "my-job"));

        regCenter.init();

        return regCenter;

    }

    private static JobConfiguration createJobConfiguration() {

        // 创建作业配置

        return JobConfiguration.newBuilder("MyScriptJob", 1)

                .cron("0/5 * * * * ?")

                .setProperty(ScriptJobProperties.SCRIPT_KEY, "java -version")

                .overwrite(true)

                .build();

    }

}

(11)HTTP作业

package com.zhaoyang;

import org.apache.shardingsphere.elasticjob.api.JobConfiguration;

import org.apache.shardingsphere.elasticjob.http.props.HttpJobProperties;

import org.apache.shardingsphere.elasticjob.lite.api.bootstrap.impl.ScheduleJobBootstrap;

import org.apache.shardingsphere.elasticjob.reg.base.CoordinatorRegistryCenter;

import org.apache.shardingsphere.elasticjob.reg.zookeeper.ZookeeperConfiguration;

import org.apache.shardingsphere.elasticjob.reg.zookeeper.ZookeeperRegistryCenter;

// (4)HTTP作业(3.0.0-beta 提供)

/**

* 注意ScheduleJobBootstrap的第二个参数为"HTTP",另外通过设置http.uri、http.method等参数来配置请求信息。

*

* 其底层其实就是利用的HttpURLConnection来实现的。

*

* 如果要看到调用结果,得把日志级别设置为debug,因为在HttpJobExecutor源码中中是这么打印请求结果的:

*/

public class TestHttpJob {

    public static void main(String[] args) {

        new ScheduleJobBootstrap(createRegistryCenter(), "HTTP", createJobConfiguration()).schedule();

    }

    private static CoordinatorRegistryCenter createRegistryCenter() {

        CoordinatorRegistryCenter regCenter = new ZookeeperRegistryCenter(new ZookeeperConfiguration("localhost:2181", "my-job"));

        regCenter.init();

        return regCenter;

    }

    private static JobConfiguration createJobConfiguration() {

        // 创建作业配置

        return JobConfiguration.newBuilder("MyHttpJob", 1)

                .cron("0/5 * * * * ?")

                .setProperty(HttpJobProperties.URI_KEY, "http://www.baidu.com")

                .setProperty(HttpJobProperties.METHOD_KEY, "GET")

                .setProperty(HttpJobProperties.DATA_KEY, "source=ejob") // 请求体

                .overwrite(true)

                .build();

    }

}

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 220,884评论 6 513
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 94,212评论 3 395
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 167,351评论 0 360
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 59,412评论 1 294
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 68,438评论 6 397
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 52,127评论 1 308
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,714评论 3 420
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,636评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 46,173评论 1 319
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,264评论 3 339
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,402评论 1 352
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 36,073评论 5 347
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,763评论 3 332
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,253评论 0 23
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,382评论 1 271
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,749评论 3 375
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,403评论 2 358

推荐阅读更多精彩内容