Dubbo核心设计原理剖析

这节课的主要内容包括服务注册与动态发现、服务调用、网络通信模型、高度灵活的扩展机制和泛化调用五个部分。

服务注册与动态发现

我们首先来看一下 Dubbo 的服务注册与动态发现机制。Dubbo 的服务注册与发现机制如下图所示:


image.png

Dubbo 中主要包括四类角色,它们分别是注册中心(Registry)、服务调用者 & 消费端(Consumer)、服务提供者(Provider)和监控中心(Monitor)。

在实现服务注册与发现时,有三个要点。

  1. 服务提供者 (Provider) 在启动的时候在注册中心 (Register) 注册服务,注册中心 (Registry) 会存储服务提供者的相关信息。
  2. 服务调用者 (Consumer) 在启动的时候向注册中心订阅指定服务,注册中心将以某种机制(推或拉)告知消费端服务提供者列表。
  3. 当服务提供者数量变化(服务提供者扩容、缩容、宕机等因素)时,注册中心需要以某种方式 (推或拉) 告知消费端,以便消费端进行正常的负载均衡。

基于 Zookeeper 注册中心的服务注册与发现有下面三个实现细节。

  1. 服务提供者启动时会向注册中心进行注册,具体是在对应服务的 providers 目录下增加一条记录(临时节点),记录服务提供者的 IP、端口等信息。

  2. 同时服务提供者会监听 configurators 节点的变化。服务消费者在启动时会向注册中心订阅服务,具体是在对应服务的 consumers 目录下增加一条记录(临时节点),记录消费者的 IP、端口等信息,同时监听 configurators、routers 目录的变化,所谓的监听就是利用 ZooKeeper 提供的 watch 机制。

  3. 当有新的服务提供者上线后, providers 目录会增加一条记录,注册中心会将最新的服务提供者列表推送给服务调用方(消费端),这样消费者可以立刻收到通知,知道服务提供者的列表产生了变化。如果一个服务提供者宕机,因为它是临时节点,所以 ZooKeeper 会把这个节点移除,同样会触发事件,消费端一样能得知最新的服务提供者列表,从而实现路由的动态注册与发现。

服务调用

接下来我们再来看看服务调用。Dubbo 的服务调用设计十分优雅,其实现原理图如下:

image.png

服务调用重点阐述的是客户端发起一个 RPC 服务调用时的所有实现细节,它包括服务发现、故障转移、路由转发、负载均衡等方面,是 Dubbo 实现灰度发布、多环境隔离的理论指导。

客户端通过服务发现机制,能动态发现当前存活的服务提供者列表,接下来要考虑的就是如何从服务提供者列表中选择一个服务提供者发起调用,这就是所谓的负载均衡(LoadBalance)。

Dubbo 默认提供了随机、加权随机、最少活跃连接、一致性 Hash 等负载均衡算法。

值得注意的是,Dubbo 不仅提供了负载均衡机制,还提供了智能路由机制,这是实现 Dubbo 灰度发布的重要理论基础。

所谓路由机制,是指设置一定的规则对服务提供者列表进行过滤。负载均衡时,只在经过了路由机制的服务提供者列表中进行选择。为了更好地理解路由机制的工作原理,你可以看看下面这张示意图:


image.png

我们为查找用户信息服务设置了一条路由规则,即“查询机构 ID 为 102 的查询用户请求信息将被发送到新版本(192.168.3.102)上。具体的做法是,在进行负载均衡之前先执行路由选择,按照路由规则对原始的服务提供者列表进行过滤,从中挑选出符合要求的提供者列表,然后再进行负载均衡。

接下来,客户端就要向服务提供者发起 RPC 请求调用了。远程服务调用通常涉及到网络等因素,因此并不能保证 100% 成功,当调用失败时应该采用什么策略呢?

Dubbo 提供了下面五种策略:

  • failover,失败后选择另外一台服务提供者进行重试,重试次数可配置,通常适合实现幂等服务的场景;
  • failfast,快速失败,失败后立即返回错误;
  • failsafe,调用失败后打印错误日志,返回成功,通常用于记录审计日志等场景;
  • failback,调用失败后,返回成功,但会在后台定时无限次重试,重启后不再重试;
  • forking,并发调用,收到第一个响应结果后返回给客户端。通常适合实时性要求比较高的场景。但这一策略浪费服务器资源,通常可以通过 forks 参数设置并发调用度。

网络通信模型

我们先看看Dubbo 的网络通信模型,如下图所示:


image.png

Dubbo 的网络通信模型主要包括网络通信协议和线程派发机制(Dispatcher)两部分。

网络传输通常需要自定义通信协议,我们常用的协议设计方式是 Header + Body, 其中 Header 长度固定,包含一个长度字段,用于记录整个协议包的大小。同时,为了提高传输效率,我们一般会对传输数据也就是 Body 的内容进行序列化与压缩处理。Dubbo 支持目前支持 java、compactedjava、nativejava、fastjson、fst、hessian2、kryo 等序列化协议,生产环境默认为 hessian2。

网络通信模型的另一部分是线程派发机制。

Dubbo 中会默认创建 200 个线程处理业务,这时候就需要线程派发机制来指导 IO 线程与业务线程如何分工。

Dubbo 提供了下面几种线程派发机制:

  • all,所有的请求转发到业务线程池中执行(IO 读写、心跳包除外,因为在 Dubbo 中这两种请求都必须在 IO 线程中执行,不能通过配置修改);
  • message,只有请求事件在线程池中执行,其他请求在 IO 线程上执行;
  • connection ,求事件在线程池中执行,连接和断开连接的事件排队执行(含一个线程的线程池);
  • direct,所有请求直接在 IO 线程中执行。

为什么线程派发机制有这么多种策略呢?其实这主要是考虑到线程切换带来的开销问题。也就是说,我们希望通过多种策略让线程切换带来的开销小于多线程处理带来的提升。

网络编程中需要遵循一条最佳实践:IO 线程中不能有阻塞操作,通常将阻塞操作转发到业务线程池异步执行。

高度灵活的扩展机制

Dubbo 出现之后迅速成为微服务领域最受欢迎的框架,除操作简单这个原因外,还有扩展机制的功劳。

Dubbo 高度灵活的扩展机制堪称“王者级别的设计”。Dubbo 的扩展设计主要是基于 SPI 设计理念,我们来看下具体的实现方案。Dubbo 所有的底层能力都通过接口来定义。用户在扩展时只需要实现对应的接口,定义一个统一的扩展目录(META-INF.dubbo.internal)存放所有的扩展定义即可。

泛化调用

在这节课的最后,我们再来介绍一下 Dubbo 的泛化调用机制,它也是实现 Dubbo 网关的理论基础。我们在开发 Dubbo 应用时通常会包含 API、Consumer、Provider 三个子模块。其中 API 模块通常定义统一的服务接口,而 Consumer、Provider 模块都需要显示依赖 API 模块。

这种设计理念虽然将 Provider 与 Consumer 进行了解耦合,但对 API 模块形成了强依赖,如果 API 模块发生改变,Provider 和 Consumer 必须同时改变。也就是说,一旦 API 模块发生变化,服务调用方、服务消费方都需要重新部署,这对应用发布来说非常不友好。特别是在网关领域,几乎是不可接受的,如下图所示:

image.png

公司的微服务在不停地演进,如果网关需要跟着 API 模块不停地发布新版本,网关的可用性和稳定性都将受到极大挑战。怎么解决这个问题呢?这就要说到 Dubbo 的机制了。泛化调用具体实现原理如下:


image.png

当服务消费端发生调用时,我们使用 Map 来存储一个具体的请求参数对象,然后传输到服务提供方。由于服务提供方引入了模型相关的 Jar,服务提供方在执行业务方法之前,需要将 Map 转化成具体的模型对象,然后再执行业务逻辑。Dubbo 的泛化调用在服务提供方的转化是通过 Filter 机制统一处理的,服务端并不需要关注消费方采取何种方式进行调用。通过泛化调用机制,客户端不再需要依赖服务端的 Jar 包,服务端可以不断地演变,而不会影响客户端已有服务的运行。

此文章为5月Day18学习笔记,内容来源于极客时间《中间件核心技术与实战》,强烈推荐该课程

©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容