[druid 源码解析] 7 HighAvailableDataSource 简单使用

关于 HighAvailableDataSource 的介绍,我们可以看一下官方文档相关的介绍,官方文档主要介绍如下几个作用:

  1. 节点路由 - 根据节点名称指定路由,随机路由,粘性随机路由
  2. 节点配置 - 纯手工配置节点,根据配置文件生成节点,根据ZooKeeper信息生成节点
  3. 节点健康检查 - 基于ValidConnectionChecker的节点检查机制,检查间隔时间可根据运行情况动态调整。
    我们接下来来测试一下这几部分的内容。

路由节点

首先我们来测试路由节点功能,路由节点需要我们配置多个数据源,然后注入到 HighAvailableDataSource 中,并最终生成  Datasource 。我们先来看一下配置类的信息 :

@org.springframework.context.annotation.Configuration
public class Configuration {

    @Autowired
    ApplicationContext applicationContext;

    @Autowired
    @Qualifier("dataSource1")
    DataSource dataSource1;

    @Autowired
    @Qualifier("dataSource2")
    DataSource dataSource2;


    @Bean(initMethod = "init")
    public DataSource dataSource1() {
        DruidDataSource druidDataSource = new DruidDataSource();
        druidDataSource.setUsername("root");
        druidDataSource.setPassword("root");
        druidDataSource.setUrl("jdbc:mysql://localhost:3306/information_schema?useSSL=false&useUnicode=true&characterEncoding=UTF-8");
        return druidDataSource;
    }

    @Bean(initMethod = "init")
    public DataSource dataSource2() {
        DruidDataSource druidDataSource = new DruidDataSource();
        druidDataSource.setUsername("root");
        druidDataSource.setPassword("root");
        druidDataSource.setUrl("jdbc:mysql://localhost:3306/information_schema?useSSL=false&useUnicode=true&characterEncoding=UTF-8");
        return druidDataSource;
    }

    @Bean(initMethod = "init", destroyMethod = "destroy")
    public DataSource dataSource() {
        HighAvailableDataSource druidDataSource = new HighAvailableDataSource();
        Map<String, DataSource> dataSourceMap = new HashMap<>();
        dataSourceMap.put("dataSources1", dataSource1);
        dataSourceMap.put("default", dataSource1);
        dataSourceMap.put("dataSources2", dataSource2);
        druidDataSource.setDataSourceMap(dataSourceMap);
        druidDataSource.setSelector("byName");
        return druidDataSource;
    }

    @Bean
    public SqlSessionFactoryBean sqlSessionFactory(DataSource dataSource) throws IOException {
        SqlSessionFactoryBean sqlSessionFactory = new SqlSessionFactoryBean();
        sqlSessionFactory.setDataSource(dataSource);
        sqlSessionFactory.setMapperLocations(applicationContext.getResources("classpath:mapper/*.xml"));
        return sqlSessionFactory;
    }
}

如图,我们首先要生成了两个 Datasource , 最后注入到 HighAvailableDataSource ,有些同学会注意到,这里不是使用 ObjectProvider 来获取多个数据源数据源,也是经过一位大佬的提醒,我才意识到这个问题,构造注入的方式是没法解决循环依赖的,而这里恰好有循环依赖的问题。

循环依赖报错

回到正题,我们最后初始化完成后,日志会打印这两个数据源初始化完成。接着我们就可以像使用同个数据源来使用他了。
初始化

根据ZooKeeper生成节点集合

在开始Demo前,我们需要先在 zookeeper 注册数据源相关的节点,如下:

ZookeeperNodeRegister register = new ZookeeperNodeRegister();
        register.setZkConnectString("127.0.0.1:2181");
        register.setPath("/ha-druid-datasources");
        register.init();

        List<ZookeeperNodeInfo> payload = new ArrayList<ZookeeperNodeInfo>();
        ZookeeperNodeInfo node = new ZookeeperNodeInfo();
        node.setPrefix("ha");
        node.setHost("127.0.0.1");
        node.setPort(3306);
        node.setDatabase("information_schema");
        node.setUsername("root");
        node.setPassword("root");
        payload.add(node);
        register.register("datasource1", payload);


        ZookeeperNodeRegister register2 = new ZookeeperNodeRegister();
        register2.setZkConnectString("127.0.0.1:2181");
        register2.setPath("/ha-druid-datasources");
        register2.init();

        List<ZookeeperNodeInfo> payload2 = new ArrayList<ZookeeperNodeInfo>();
        ZookeeperNodeInfo node2 = new ZookeeperNodeInfo();
        node2.setPrefix("ha");
        node2.setHost("127.0.0.1");
        node2.setPort(3307);
        node2.setDatabase("information_schema");
        node2.setUsername("root");
        node2.setPassword("root");
        payload2.add(node2);
        register2.register("datasource2", payload2);
        Thread.sleep(1000 * 60 * 60);

我们注册了两个数据源信息,分别是本地的 3306 和 3307 端口,然后停止该线程一个小时,我们需要注意的是假如线程挂了,那么注册的临时几点也将消失,所以需要 sleep ,接下来我们到zk 上看一下注册节点的信息如下:


zk

zk 准备好后我们使用对数据源进行配置,如下:

@Bean
    public SqlSessionFactoryBean sqlSessionFactory(DataSource dataSource) throws IOException {
        SqlSessionFactoryBean sqlSessionFactory = new SqlSessionFactoryBean();
        sqlSessionFactory.setDataSource(dataSource);
        sqlSessionFactory.setMapperLocations(applicationContext.getResources("classpath:mapper/*.xml"));
        return sqlSessionFactory;
    }

    @Bean(initMethod = "init", destroyMethod = "destroy")
    public DataSource dataSource(ZookeeperNodeListener zkNodeListener) {
        HighAvailableDataSource druidDataSource = new HighAvailableDataSource();
        druidDataSource.setNodeListener(zkNodeListener);
        druidDataSource.setSelector("random");
        druidDataSource.setPoolPurgeIntervalSeconds(60);
        druidDataSource.setAllowEmptyPoolWhenUpdate(false);
        return druidDataSource;
    }

    @Bean
    public ZookeeperNodeListener zkNodeListener() {
        ZookeeperNodeListener zookeeperNodeListener = new ZookeeperNodeListener();
        zookeeperNodeListener.setZkConnectString("localhost:2181");
        zookeeperNodeListener.setPath("/ha-druid-datasources");
        zookeeperNodeListener.setUrlTemplate("jdbc:mysql://${host}:${port}/${database}?useUnicode=true");
        zookeeperNodeListener.setPrefix("ha");
        return zookeeperNodeListener;
    }

与之前使用两个 datasource 不同,这里是直接注入了一个zookeeperNodeListener,即不使用默认的随机 selector 。接着我们启动服务,可以看到以下信息,代表我们数据源初始化成功。

log

我们可以先测试一下当前数据是否可用,然后试着断开刚才 sleep 的线程,可以看到日志打印出如下信息,删除节点成功:
log

还有关闭数据源的日志如下:
log

我们可以看到这里只删除了 datasource1 , 我们重新进行测试,还是能正常获取到 datasource2 。这里主要是我们设置了如下属性,所以并不会删除所有的节点:

druidDataSource.setAllowEmptyPoolWhenUpdate(false);

还有最后一个部分就是 节点健康检查 ,这部分主要是一些配置相关的,就不进行细讲了,有兴趣的同学可以自己配置试一下。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 211,948评论 6 492
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,371评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 157,490评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,521评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,627评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,842评论 1 290
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,997评论 3 408
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,741评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,203评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,534评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,673评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,339评论 4 330
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,955评论 3 313
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,770评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,000评论 1 266
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,394评论 2 360
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,562评论 2 349

推荐阅读更多精彩内容