ZOOKEEPER335 为什么要区分acceptedEpoch 和 currentEpoch

官方解答

As mentioned, the implementation up to version 3.3.3 has not included epoch variables acceptedEpoch and currentEpoch. This omission has generated problems [5]
(issue ZOOKEEPER-335 in Apache’s issue tracking system) in a production version
and was noticed by many ZooKeeper clients. The origin of this problem is at the beginning of Recovery Phase (Algorithm 4 line 2), when the leader increments its epoch
(contained in lastZxid) even before acquiring a quorum of successfully connected followers (such leader is called false leader ). Since a follower goes back to FLE if its
epoch is larger than the leader’s epoch (line 25), when a false leader drops leadership
and becomes a follower of a leader from a previous epoch, it finds a smaller epoch (line 25) and goes back to FLE. This behavior can loop, switching from Recovery Phase to
FLE.
Consequently, using lastZxid to store the epoch number, there is no distinction
between a tried epoch and a joined epoch in the implementation. Those are the respective purposes for acceptedEpoch and currentEpoch, hence the omission of them
render such problems. These variables have been properly inserted in recent (unstable)
ZooKeeper versions to fix the problems mentioned above.

意思是,以前是不区分acceptedEpoch 和 currentEpoch的,以前epoch是直接从zxid中前32位里提取的。但这会导致一个问题:假设有三个服务器s1, s2, s3. 集群s1和s2取得联系,且s1为leader,s3为LOOKING:

  1. s2重启,加上s3的选票,将s3选为leader
  2. s3把自己当做leader,且epoch+1,但无法与其它server取得联系此时s1还是认为自己是leader(后文会问为什么)。
  3. s2无法与s3取得联系,同时收到s1的LEADING信息,便回到s1的旧集群里
  4. s3无法与他人取得联系,退出leadership,回到FLE,并收到旧集群leader s1的消息,便作为follower也回到旧集群里
  5. s3作为follower发现自己的epoch比旧leader的epoch还大,便又回到FLE

之后s3就不断在4和5之间徘徊,不断在FLE阶段和RECOVER阶段循环
别的都讲得通,但还有个关键疑惑,不是说"leader在不能与半数以上follower取得联系时,会重回选举FLE"吗?那旧集群的follower s2重启时,为何s1会仍然会认为自己是LEADER?

实验证明leader不会立刻退出leadership

我特意做实验试了一下,在4个server的集群中,启动3个server,其中s3为leader,s1和s2为follower,并在选举算法开始处增添输出字样。然后快速关闭、重启s2,发现s3并没有进入选举模式,而是再次接纳了s2。

leader维持leadership的机制

我认为是基于一种心跳包的机制,在一段时间(self.tickTime / 2)
我们看下Leader::lead的源码,代码里加了一些我的中文注释理解:

while (true) {
    synchronized (this) {
        long start = Time.currentElapsedTime();
        long cur = start;
        long end = start + self.tickTime / 2;
        while (cur < end) {
            // 我认为end - cur是心跳包的周期,每过这段时间要检查一遍集群的连接情况
            // 以此决定是否维持leadership
            // 另外,debug时看到self.tickTime值为200000,也就是200秒
            wait(end - cur);  
            cur = Time.currentElapsedTime();
        }

        if (!tickSkip) {
            self.tick.incrementAndGet();
        }

        // We use an instance of SyncedLearnerTracker to
        // track synced learners to make sure we still have a
        // quorum of current (and potentially next pending) view.
        // 我们使用SyncedLearnerTracker来跟踪追随者们,以保证自己维持了一组集群
        SyncedLearnerTracker syncedAckSet = new SyncedLearnerTracker();
        syncedAckSet.addQuorumVerifier(self.getQuorumVerifier());
        if (self.getLastSeenQuorumVerifier() != null
                && self.getLastSeenQuorumVerifier().getVersion() > self
                        .getQuorumVerifier().getVersion()) {
            syncedAckSet.addQuorumVerifier(self
                    .getLastSeenQuorumVerifier());
        }

        syncedAckSet.addAck(self.getId());

        // 查看每个追随者是否还维持着连接
        for (LearnerHandler f : getLearners()) {
            if (f.synced()) {
                syncedAckSet.addAck(f.getSid());
            }
        }

        // check leader running status
        if (!this.isRunning()) {
            // set shutdown flag
            shutdownMessage = "Unexpected internal error";
            break;
        }

        if (!tickSkip && !syncedAckSet.hasAllQuorums()) {
            // Lost quorum of last committed and/or last proposed
            // config, set shutdown flag
            // 如果没有过半数的连接,则不再维持leadership
            shutdownMessage = "Not sufficient followers synced, only synced with sids: [ "
                    + syncedAckSet.ackSetsToString() + " ]";
            break;
        }
        tickSkip = !tickSkip;
    }
    // 根据上面的逻辑,每个tickTime会调用两次下方代码
    // 对每个追随者发送一个ping
    for (LearnerHandler f : getLearners()) {
        f.ping();
    }
}
if (shutdownMessage != null) {
    shutdown(shutdownMessage);
    // leader goes in looking state
}

几个重要片段

Leader.leaderwhile (true)循环中,对每个LearnerHandler线程查看是否同步

for (LearnerHandler f : getLearners()) {
    if (f.synced()) {
        syncedAckSet.addAck(f.getSid());
    }
}

...
if (!tickSkip && !syncedAckSet.hasAllQuorums()) {
    // Lost quorum of last committed and/or last proposed
    // config, set shutdown flag
    shutdownMessage = "Not sufficient followers synced, only synced with sids: [ "
            + syncedAckSet.ackSetsToString() + " ]";
    break;
}

Leader::getLearners返回的是learners变量的拷贝

public List<LearnerHandler> getLearners() {
        synchronized (learners) {
            return new ArrayList<LearnerHandler>(learners);
        }
    }

LearnerHandler::synced主要判断线程是否存活

public boolean synced() {
  return isAlive()
  && leader.self.tick.get() <= tickOfNextAckDeadline;
}

看到这里我们可以认为,SyncedLearnerTracker syncedAckSet是否判断集群成立,主要取决于Leader.learners每个LearnerHandler线程的存活情况
因此,这个集群的健康状态,取决于LearnerHandler线程何时会退出,以及Leader.learners变量何时会增减元素

LearnerHandler是如何启动的

LearnerCnxAcceptor::run中, LearnerCnxAcceptor线程不断收听新连接socket,并作为参数启动LearnerHandler

LearnerHandler如何被添加到Leader.learners中

@Override
    public void run() {
        try {
            leader.addLearnerHandler(this);
            ...
void addLearnerHandler(LearnerHandler learner) {
      synchronized (learners) {
          learners.add(learner);
      }
}
private final HashSet<LearnerHandler> learners =
        new HashSet<LearnerHandler>();

LearnerHandler在启动时就把自己加入Leader.learners了。
(查看源码发现,LearnerHandler并没有重写hashCode、equals,个人觉得这不够严谨,当某个追随者重启时,会导致代表该追随者的LearnerHandler有两个,尽管其中一个应该会shutdown)

LearnerHandler如何被移除Leader.learners

LearnerHandler::shutdown

public void shutdown() {
    ...
    this.interrupt();
    leader.removeLearnerHandler(this);
}

该方法有两处调用
LearnerHandler::run

@Override
public void run() {
    try {
        leader.addLearnerHandler(this);
        ...
        }
    } catch (IOException e) {
        ...
    } finally {
        LOG.warn("******* GOODBYE "
                + (sock != null ? sock.getRemoteSocketAddress() : "<null>")
                + " ********");
        shutdown();
    }
}

LearnerHandler::ping

public void ping() {
    // If learner hasn't sync properly yet, don't send ping packet
    // otherwise, the learner will crash
    if (!sendingThreadStarted) {
        return;
    }
    long id;
    if (syncLimitCheck.check(System.nanoTime())) {
        synchronized(leader) {
            id = leader.lastProposed;
        }
        QuorumPacket ping = new QuorumPacket(Leader.PING, id, null, null);
        queuePacket(ping);
    } else {
        LOG.warn("Closing connection to peer due to transaction timeout.");
        shutdown();
    }
}

这说明两点:

  1. 若连接断开,LearnerHandler线程会自己检测到socket关闭,并将自己移出learners
  2. 或者由Leader调用ping时,发现超出时限,便shutdown该LearnerHandler

我在自己实验follwer断线重连时,发现第一处的shutdown被调用,也就是说,通常来说只要连接断开,对应的LearnerHandler就会断开了连接了。

总结leadership机制

从上文总结我们看到

  1. LearnerHandler在创建时会加入Leader.learners,在socket关闭时会移出Leader.learners。我们可以认为一个存活的LearnerHandler代表了一个追随者的连接。
  2. Leader每隔self.tickTime时间会检查LearnerHandler数是否过半(if (!tickSkip && !syncedAckSet.hasAllQuorums())),若不过半就退出leadership
  3. Leader每隔self.tickTime / 2时间会对所有追随者ping一次,这之中可能会导致LearnerHandler的销亡
  4. debug发现self.tickTime为200秒,该值应该是在QuorumPeerMain::runFromConfig的quorumPeer.setTickTime(config.getTickTime());中设置的

总结而言,Leader维持领导确实采取了心跳包的策略,而且只要在200秒到期检查的时候,能凑齐过半数(加上自己以后)的存活追随者即可。

  1. 这也就回答了开头的"那旧集群的follower s2重启时,为何s1会仍然会认为自己是LEADER?",因为断线重连很快,s1并没有放弃自己的leadership。
  2. 这也提出新的疑问,如果网络抖动,使得刚好在200秒时能凑齐过半数,在其它时候都不过半,还能正常运转吗?我认为之后的写操作要求过半ACK才能commit能够规避这一点,只要网络抖动导致不能过半ACK,写操作就只能阻塞。
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 214,377评论 6 496
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,390评论 3 389
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 159,967评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,344评论 1 288
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,441评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,492评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,497评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,274评论 0 269
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,732评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,008评论 2 328
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,184评论 1 342
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,837评论 4 337
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,520评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,156评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,407评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,056评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,074评论 2 352

推荐阅读更多精彩内容