1.简介
1.1 swarm是什么
Swarm
是使用 SwarmKit
构建的 Docker 引擎内置(原生)的集群管理和编排工具。其主要作用是把若干台Docker主机抽象为一个整体,并且通过一个入口统一管理这些Docker主机上的各种Docker资源。Swarm和Kubernetes比较类似,但是更加轻量,具有的功能也较kubernetes更少一些。
Docker v1.12 是一个非常重要的版本,Docker 重新实现了集群的编排方式。在此之前,提供集群功能的 Docker Swarm 是一个单独的软件,而且依赖外部数据库(比如 Consul、etcd 或 Zookeeper)。从 v1.12 开始,Docker Swarm 的功能已经完全与 Docker Engine 集成,要管理集群,只需要启动 Swarm Mode。安装好 Docker,Swarm 就已经在那里了,服务发现也在那里了(不需要安装 Consul 等外部数据库)。
Docker的Swarm(集群)模式,集成很多工具和特性,比如:跨主机上快速部署服务,服务的快速扩展,集群的管理整合到docker引擎,这意味着可以不可以不使用第三方管理工具。分散设计,声明式的服务模型,可扩展,状态协调处理,多主机网络,分布式的服务发现,负载均衡,滚动更新,安全(通信的加密)等等。
官方网站:https://docs.docker.com/engine/swarm/
1.2 swarm基本概念
1.2.1 节点
运行 Docker 的主机可以主动初始化一个 Swarm
集群或者加入一个已存在的 Swarm
集群,这样这个运行 Docker 的主机就成为一个 Swarm
集群的节点 (node
) 。
节点分为管理 (manager
) 节点和工作 (worker
) 节点。
管理节点用于 Swarm
集群的管理,docker swarm
命令基本只能在管理节点执行(节点退出集群命令 docker swarm leave
可以在工作节点执行)。一个 Swarm
集群可以有多个管理节点,但只有一个管理节点可以成为 leader
,leader
通过 raft
协议实现。
工作节点是任务执行节点,管理节点将服务 (service
) 下发至工作节点执行。管理节点默认也作为工作节点。也可以通过配置让服务只运行在管理节点。
Docker 官网的这张图片形象的展示了集群中管理节点与工作节点的关系。
1.2.2 服务和任务
任务 (Task
)是 Swarm
中的最小的调度单位,目前来说就是一个单一的容器
服务 (Services
) 是指一组任务的集合,服务定义了任务的属性。服务有两种模式:
-
replicated services
按照一定规则在各个工作节点上运行指定个数的任务 -
global services
每个工作节点上运行一个任务
两种模式通过 docker service create
的 --mode
参数指定。
1.2.3 负载均衡
Swarm Manager使用 ingress load balancing 来对外公开集群提供的服务。manager
可以自动为服务分配端口,也可以手动配置。如果未指定端口,则swarm集群管理器会为服务分配30000-32767范围内的端口。
外部组件(例如云负载平衡器)可以访问集群中任何节点的PublishedPort上的服务,无论该节点当前是否正在运行该服务的任务。集群中的所有节点都将入口连接到正在运行的任务实例。
Swarm模式有一个内部DNS组件,可以自动为swarm中的每个服务分配一个DNS条目。集群管理器使用内部负载平衡来根据服务的DNS名称,在集群内的服务之间分发请求。
1.3 swarm特性
集群管理与Docker Engine集成:使用Docker Engine CLI来创建一个你能部署应用服务到Docker Engine的swarm集群。你不需要其他编排软件来创建或管理swarm集群。
分散式设计:你可以使用Docker Engine部署两种类型的节点:
manager
和worker
,在swarm集群运行期间,可以对其作出任何改变,实现对集群的扩容和缩容等,如添加manager
节点,如删除worker
节点,而做这些操作不需要暂停或重启当前的Swarm集群服务声明性服务模型:Docker Engine使用了一种声明的方式,让我们可以定义我们所期望的各种服务的状态,例如,我们创建了一个应用服务栈:一个Web前端服务、一个后端数据库服务、Web前端服务又依赖于一个消息队列服务
伸缩性:对于每个服务,你可以声明要运行的任务数。当你需要伸缩时,只需通过命令行指定Docker容器数量即可,Swarm集群运行时便能自动地、灵活地进行调整
协调预期状态与实际状态的一致性:Swarm Manager持续监控集群状态,协调集群状态使得我们预期状态和实际状态保持一致。 例如,运行拥有10个副本的服务,这时
worker
节点中的两个副本崩溃,管理器将创建两个新副本以替换已崩溃的副本。 swarm管理器将新副本分配给正在运行和可用的worker
节点多主机网络:你可以为服务指定覆盖网络(overlay network),当swarm管理器初始化或更新应用程序时,它会自动为容器在覆盖网络(overlay network)中分配IP地址。
服务发现:Swarm Manager 为swarm中的每个服务分配唯一的DNS名称,对运行中的Docker容器进行负载均衡。可以 通过Swarm集群内置的DNS Server,查询Swarm集群中运行的Docker容器状态
负载平衡:在Swarm内部,可以指定如何在各个Node之间分发服务容器(Service Container),实现负载均衡。如果想要使用Swarm集群外部的负载均衡器,可以将服务容器的端口暴露到外部
安全通信:swarm中的每个节点强制执行TLS相互验证和加密,以保护其自身与所有其他节点之间的通信。 你可以选择使用自签名根证书或来自自定义根CA的证书
滚动更新:对于服务需要更新的场景,我们可以在多个Node上进行增量部署更新,Swarm Manager支持通过使用Docker CLI设置一个delay时间间隔,实现多个服务在多个Node上依次进行部署。这样可以非常灵活地控制,如果有一个服务更新失败,则暂停后面的更新操作,重新回滚到更新之前的版本
2.架构分析
2.1 基本架构
Docker Swarm提供了基本的集群能力,能够使多个Docker Engine组合成一个group,提供多容器服务。Swarm使用标准的Docker API,启动容器可以直接使用docker run命令。Swarm更核心的则是关注如何选择一个主机并在其上启动容器,最终运行服务。 Docker Swarm基本架构,如下图所示:
如上图所示,Swarm Node表示加入Swarm集群中的一个Docker Engine实例,基于该Docker Engine可以创建并管理多个Docker容器。其中,最开始创建Swarm集群的时候,Swarm Manager便是集群中的第一个Swarm Node。在所有的Node中,又根据其职能划分为Manager Node和Worker Node。
2.1 Manager Node
Manger 节点,顾名思义,是进行 Swarm 集群的管理工作的,它的管理工作集中在如下部分,
- 维护集群的状态;
- 对 Services 进行调度;
- 为 Swarm 集群提供外部可调用的 API 接口;
Manager 节点需要时刻维护和保存当前 Swarm 集群中各个节点的一致性状态,这里主要是指各个 tasks 的执行的状态和其它节点的状态;因为 Swarm 集群是一个典型的分布式集群,在保证一致性上,Manager 节点采用 Raft 协议来保证分布式场景下的数据一致性;
通常为了保证 Manager 节点的高可用,Docker 建议采用奇数个 Manager 节点,这样的话,你可以在 Manager 失败的时候不用关机维护,我们给出如下的建议:
- 3 个 Manager 节点最多可以同时容忍 1 个 Manager 节点失效的情况下保证高可用;
- 5 个 Manager 节点最多可以同时容忍 2 个 Manager 节点失效的情况下保证高可用;
- N 个 Manager 节点最多可以同时容忍 (N−1)/2个 Manager 节点失效的情况下保证高可用;
- Docker 建议最多最多的情况下,使用 7 个 Manager 节点就够了,否则反而会降低集群的性能了。
2.2 Worker Node
worker
节点接收由manager
节点调度并指派的task,启动Docker容器来运行指定的服务,并且worker
节点需要向manager
节点汇报被指派的task的执行状态。
2.3 更换角色
通过 docker node promote
命令将一个worker
节点提升为manager
节点,通常情况下,该命令使用在维护的过程中。若需将manager
节点暂时下线进行维护操作,同样可以使用docker node demote
将某个 manager 节点降级为 worker 节点。
2.2 设计架构
从前文可知, Swarm 集群的管理工作是由manager
节点实现。如上图所示,manager
节点实现的功能主要包括:节点发现,调度,集群管理等。同时,为了保证Manager
节点的高可用,Manager
节点需要时刻维护和保存当前 Swarm 集群中各个节点的一致性状态。在保证一致性上,Manager
节点采用 Raft 协议来保证分布式场景下的数据一致性;
Docker Swarm内置Raft一致性算法,可以保证分布式系统的数据保持一致性同步。Etcd, Consul等高可用键值存储系统也是采用了这种算法。这个算法的作用简单点说就是随时保证集群中有一个Leader,由Leader接收数据更新,再同步到其他各个Follower节点。在Swarm中的作用表现为当一个Leader 节点 down掉时,系统会立即选取出另一个Leader节点,由于这个节点同步了之前节点的所有数据,所以可以无缝地管理集群。
Raft的详细解释可以参考《The Secret Lives of Data--Raft: Understandable Distributed Consensus》
2.2.1 跨主机容器通信
Docker Swarm 内置的跨主机容器通信方案是overlay网络,这是一个基于vxlan协议的网络实现。vxlan将二层数据封装到 UDP 进行传输,vxlan 提供与 vlan 相同的以太网二层服务,但是拥有更强的扩展性和灵活性。 overlay 通过虚拟出一个子网,让处于不同主机的容器能透明地使用这个子网。所以跨主机的容器通信就变成了在同一个子网下的容器通信,看上去就像是同一主机下的bridge网络通信。
为支持容器跨主机通信,Docker 提供了 overlay driver,使用户可以创建基于 vxlan 的 overlay 网络。其实,docker 会创建一个 bridge 网络 “docker_gwbridge”,为所有连接到 overlay 网络的容器提供访问外网的能力。
查看网络信息:docker network inspect docker_gwbridge
下面我们讨论下overlay 网络的具体实现:
docker 会为每个 overlay 网络创建一个独立的 network namespace,其中会有一个 linux bridge br0,endpoint 还是由 veth pair 实现,一端连接到容器中(即 eth0),另一端连接到 namespace 的 br0 上。
br0 除了连接所有的 endpoint,还会连接一个 vxlan 设备,用于与其他 host 建立 vxlan tunnel。容器之间的数据就是通过这个 tunnel 通信的。逻辑网络拓扑结构如图所示:
2.2.2 服务发现
docker Swarm mode下会为每个节点的docker engine内置一个DNS server,各个节点间的DNS server通过control plane的gossip协议互相交互信息。此DNS server用于容器间的服务发现。swarm mode会为每个 --net=自定义网络的service分配一个DNS entry。目前必须是自定义网络,比如overaly。而bridge和routing mesh的service,是不会分配DNS的。
那么,下面就来详细介绍服务发现的原理。
每个Docker容器都有一个DNS解析器,它将DNS查询转发到docker engine,该引擎充当DNS服务器。docker 引擎收到请求后就会在发出请求的容器所在的所有网络中,检查域名对应的是不是一个容器或者是服务,如果是,docker引擎就会从存储的key-value建值队中查找这个容器名、任务名、或者服务名对应的IP地址,并把这个IP地址或者是服务的虚拟IP地址返回给发起请求的域名解析器。
由上可知,docker的服务发现的作用范围是网络级别,也就意味着只有在同一个网络上的容器或任务才能利用内置的DNS服务来相互发现,不在同一个网络里面的服务是不能解析名称的,另外,为了安全和性能只有当一个节点上有容器或任务在某个网络里面时,这个节点才会存储那个网络里面的DNS记录。
如果目的容器或服务和源容器不在同一个网络里面,Docker引擎会把这个DNS查询转发到配置的默认DNS服务 。
在上面的例子中,总共有两个服务myservice和client,其中myservice有两个容器,这两个服务在同一个网里面。在客户端里针对docker.com和myservice各执行了一个curl操作,下面时执行的流程:
- 为了客户端解析docker.com和myservice,DNS查询进行初始化
- 容器内建的解析器在127.0.0.11:53拦截到这个DNS查询请求,并把请求转发到docker引擎的DNS服务
- myservice被解析成服务对应的虚拟IP(10.0.0.3),在接下来的内部负载均衡阶段再被解析成一个具体任务的IP地址。如果是容器名称这一步直接解析成容器对应的IP地址(10.0.0.4或者10.0.0.5)。
- docker.com在mynet网络上不能被解析成服务,所以这个请求被转发到配置好的默认DNS服务器(8.8.8.8)上。
2.2.3 负载均衡
负载均衡分为两种:Swarm集群内的service之间的相互访问需要做负载均衡,称为内部负载均衡(Internal LB);从Swarm集群外部访问服务的公开端口,也需要做负载均衡,称外部部负载均衡(Exteral LB or Ingress LB)。
- Internal LB
内部负载均衡就是我们在上一段提到的服务发现,集群内部通过DNS访问service时,Swarm默认通过VIP(virtual IP)、iptables、IPVS转发到某个容器。
当在docker swarm集群模式下创建一个服务时,会自动在服务所属的网络上给服务额外的分配一个虚拟IP,当解析服务名字时就会返回这个虚拟IP。对虚拟IP的请求会通过overlay网络自动的负载到这个服务所有的健康任务上。这个方式也避免了客户端的负载均衡,因为只有单独的一个IP会返回给客户端,docker会处理虚拟IP到具体任务的路由,并把请求平均的分配给所有的健康任务。
# 创建overlay网络:mynet
$ docker network create -d overlay mynet
a59umzkdj2r0ua7x8jxd84dhr
# 利用mynet网络创建myservice服务,并复制两份
$ docker service create --network mynet --name myservice --replicas 2 busybox ping localhost
78t5r8cr0f0h6k2c3k7ih4l6f5
# 通过下面的命令查看myservice对应的虚拟IP
$ docker service inspect myservice
...
"VirtualIPs": [
{
"NetworkID": "a59umzkdj2r0ua7x8jxd84dhr",
"Addr": "10.0.0.3/24"
},
]
注:swarm中服务还有另外一种负载均衡技术可选,DNS round robin (DNS RR) (在创建服务时通过--endpoint-mode配置项指定),在DNSRR模式下,docker不再为服务创建VIP,docker DNS 服务直接利用轮询的策略把服务名称直接解析成其中一个容器的IP地址。
- Exteral LB(Ingress LB 或者 Swarm Mode Routing Mesh)
看名字就知道,这个负载均衡方式和前面提到的Ingress网络有关。Swarm 网络要提供对外访问的服务就需要打开公开端口,并映射到宿主机。Ingress LB 就是外部通过公开端口访问集群时做的负载均衡。
当创建或更新一个服务时,你可以利用 --publish
选项把一个服务暴露到外部,在 docker swarm 模式下发布一个端口意味着在集群中的所有节点都会监听这个端口,当访问一个监听了端口但是并没有对应任务运行在其上的节点会发生什么呢?
接下来就该我们的路由网(routing mesh)出场了,路由网是 docker1.12 引入的一个新特性,它结合了 IPVS 和 iptables 创建了一个强大的集群范围的4层负载均衡,它使所有节点接收来自服务暴露端口的请求成为可能。当任意节点接收到针对某个服务暴露的 TCP/UDP 端口的请求时,这个节点会利用预先定义过的 Ingress overlay 网络,将请求转发给服务对应的虚拟IP。ingress 网络和其他的 overlay 网络一样,只是它的目的是为了转换来自客户端到集群的请求,它也是利用我们前一小节介绍过的基于 VIP 的负载均衡技术。
启动服务后,你可以为应用程序创建外部DNS记录,并将其映射到任何或所有 Docker swarm 节点。你无需担心你的容器具体运行在那个节点上,因为有了路由网这个特性后,你的集群看起来就像是单独的一个节点一样。
#在集群中创建一个副本数量为2的服务,并暴露在8000端口
$ docker service create --name app --replicas 2 --network appnet --publish 8000:80 nginx
上图展示路由网是怎么工作的:
- 服务(app)拥有两个副本,并把端口映射到外部端口的8000
- 路由网在集群中的所有节点上都暴露出8000
- 外部对服务app的请求可以是任意节点,在本例子中外部的负载均衡器将请求转发到了没有 app 服务的主机上
- docker swarm 的 IPVS 利用ingress overlay 网络将请求重新转发到运行着 app 服务 task 的容器中
注:以上服务发现和负载均衡参考文档 https://success.docker.com/article/ucp-service-discovery
2.3 Services 架构
在微服务部署的过程中,通常将某一个微服务封装为 service 在 Swarm 中部署执行,通常你需要通过指定容器 image 以及需要在容器中执行的 commands 来创建你的 service,除此之外,通常还需要配置如下选项,
- 指定可在 Swarm 外部可以被访问的服务端口号 port
- 指定加入某个 overlay 网络以便 service 与 service 之间可以建立连接并通讯
- 指定该 service 所要使用的 CPU 和 内存的大小
- 指定一个滚动更新的策略(Rolling Update Policy)
- 指定 service 的副本数量(replicas)
2.3.1 服务和任务
services,tasks 和 containers 之间的关系可以用上图来描述。来看这张图的逻辑,表示用户想要通过 manager
节点部署一个副本数为3的 nginx 的 service,manager
节点接收到用户的 service definition 后,便开始对该 service 进行调度,将会在可用的 worker
(或者manager
)节点中启动相应的 tasks 以及相关的副本;可以看到,service 实际上是 task 的定义,而 task 则是执行在节点上的程序。
task 是什么呢?其实就是一个 container,只是在 Swarm 中,每个 task 都有自己的名字和编号,如图,比如 nginx.1、nginx.2 和 nginx.3,这些 container 各自运行在各自的节点上,当然,一个节点可以运行多个 container;
2.3.2 任务调度
Docker swarm mode 模式的底层技术实际上就是指的是调度器( scheduler )和编排器( orchestrator );下面这张图展示了 Swarm mode 如何从一个 service 的创建请求到成功将该 service 分发到两个 worker
节点上执行的过程。
-
首先,看上半部分 Swarm manager
- 用户通过 Docker Engine Client 使用命令
docker service create
提交 service definition - 根据 service definition 创建相应的 task
- 为 task 分配 IP 地址(注意,这是分配运行在 Swarm 集群中 container 的 IP 地址,该 IP 地址最佳的分配地点是在这里,因为
manager
节点上保存有最新最全的 tasks 的状态信息,为了保证不与其他的 Task 分配到相同的 IP,所以在这里就将 IP 地址给初始化好) - 将task 分发到
worker
节点或者manager
节点 - 对
worker
节点进行相应的初始化使得它可以执行 task
- 用户通过 Docker Engine Client 使用命令
-
接着,看下半部分 Swarm Worker
该部分就相对简单许多- 首先连接 manager 的分配器( scheduler)检查该 task
- 验证通过以后,便开始通过
worker
节点上的执行器( executor )执行
注意,上述 task 的执行过程是一种单向机制,它会按顺序的依次经历 assigned, prepared 和 running 等执行状态,不过在某些特殊情况下,在执行过程中,某个 task 失败了( fails ),编排器( orchestrator )直接将该 task 以及它的 container 删除掉,然后在其它节点上另外创建并执行该 task;
2.3.3 调度策略
Swarm 在 scheduler 节点(leader节点)运行容器的时候,会根据指定的策略来计算最适合运行容器的节点,目前支持的策略有:spread, binpack, random
1)Random 顾名思义,就是随机选择一个节点来运行容器,一般用作调试用,Spread 和 Binpack 策略会根据各个节点的可用的CPU, RAM以及正在运 行的容器的数量来计算应该运行容器的节点
2)Spread 在同等条件下,Spread 策略会选择存活容器数量最少的那台节点来运行新的容器,Binpack策略会选择运行容器最集中的那台机器来运行新的节点。 使用Spread策略会使得容器会均衡的分布在集群中的各节点上,一个节点挂掉了只会损失少部分的容器
3)Binpack 策略最大化的避免容器碎片化,就是说 Binpack 策略尽可能的把还未使用的节点留给需要更大空间的容器运行,尽可能的把容器运行在 一个节点上面
2.3.4 服务副本与全局服务
Docker Swarm支持服务的扩容缩容,Swarm 通过 --mode
选项设置服务类型;提供了两种模式:一种是 replicated
,我们可以指定服务 task 的数量(也就是需要创建几个冗余副本),是Swarm默认使用的服务类型;第二种是 global
,会在Swarm集群的每个节点上都创建一个服务 task。如下图所示(出自Docker官网),是一个包含replicated和global模式的Swarm集群:
上图中,黄色表示的 replicated 模式下的 service replicas,灰色表示 global 模式下 service 的分布。
在Swarm mode下使用 Docker,可以部署服务、服务扩容缩容、删除服务、滚动更新,下面我们详细说明
3.集群搭建
3.1 环境配置
虚拟机信息
IP | hostname | 配置 | 角色 |
---|---|---|---|
172.21.111.56 | swarm01 | 4CPU/6G | Manager |
172.21.111.57 | swarm02 | 4CPU/6G | Manager |
172.21.111.58 | swarm03 | 4CPU/6G | Manager |
为验证后续的swarm manager 高可用,将这三台节点都配置成为Manager节点。
3.2 前置准备
3.2.1 修改主机名
hostnamectl --static --transient set-hostname swarm01
修改/etc/hosts 。三台主机上均设置一致
[root@swarm01 ~]# cat /etc/hosts
127.0.0.1 swarm-manager localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
172.21.111.56 swarm01
172.21.111.57 swarm02
172.21.111.58 swarm03
3.2.2 配置互信
ssh-keygen -t rsa
ssh-copy-id -i .ssh/id_rsa.pub 172.21.111.57
ssh-copy-id -i .ssh/id_rsa.pub 172.21.111.58
3.2.3 关闭防火墙和SELinux
systemctl disable firewalld
systemctl stop firewalld
修改 /etc/selinux/config ,修改配置项 SELINUX=enforcing 为 disabled
3.2 安装Docker服务
从 v1.12 开始,Docker Swarm 的功能已经完全与 Docker Engine 集成,要管理集群,只需要启动 Swarm Mode。安装好 Docker,Swarm 就已经在那里了,服务发现也在那里了(不需要安装 Consul 等外部数据库)。配置好yum 源之后,便可安装 docker-ce。
yum install -y docker-ce
systemctl enable docker
systemctl start docker
3.3 集群初始化
3.2.1 初始化主节点
使用命令 docker swarm init
初始化当前节点为主节点,如果主机上有多张网卡的时候,需指定网卡 docker swarm init --advertise-addr [IP] --listen-addr [IP:PORT]
节点自动解锁:docker swarm init --autolock=false
[root@swarm01 ~]# docker swarm init --autolock=false --advertise-addr 172.21.111.56 --listen-addr 172.21.111.56:2377
Swarm initialized: current node (epoic1y0vv830vnwbc6nnacjc) is now a manager.
To add a worker to this swarm, run the following command:
docker swarm join --token SWMTKN-1-5t9jv2o6z3ep9mk5c2ae41bpqojla1g8cfjo3qlsuj2sxi934l-af2x3lh8vs6dnpepy66kdw5mv 172.21.111.56:2377
To add a manager to this swarm, run 'docker swarm join-token manager' and follow the instructions.
添加集群有两种方式,一种是以 manager
节点的方式添加,一种则是以 worker
节点方式添加。默认输出只给出了添加worker
的命令,添加 manager
命令则需要通过 docker swarm join-token manager
获取。
[root@swarm01 ~]# docker swarm join-token manager
To add a manager to this swarm, run the following command:
docker swarm join --token SWMTKN-1-5t9jv2o6z3ep9mk5c2ae41bpqojla1g8cfjo3qlsuj2sxi934l-eszh52z00ktao9j7lovfvjgqy 172.21.111.56:2377
3.2.2 添加manager 节点
分别登陆 swarm02、swarm03,执行上一节得到的命令。
[root@swarm03 ~]#docker swarm join --token SWMTKN-1-5t9jv2o6z3ep9mk5c2ae41bpqojla1g8cfjo3qlsuj2sxi934l-eszh52z00ktao9j7lovfvjgqy 172.21.111.56:2377
This node joined a swarm as a manager.
注:不要在节点上配置http代理,否则会添加节点失败。
3.2.3 离开集群
如果想退出集群,可以在该节点上直接退出。
[root@swarm03 ~]# docker swarm leave
[root@swarm03 ~]# docker swarm leave --force
3.2.4 查看集群节点信息
登陆任意一台Manager节点,都可以查看当前集群的节点信息
[root@swarm02 ~]# docker node ls
ID HOSTNAME STATUS AVAILABILITY MANAGER STATUS ENGINE VERSION
epoic1y0vv830vnwbc6nnacjc swarm01 Ready Active Leader 18.03.1-ce
nsqqv181e0r7mu77azixtqhzl * swarm02 Ready Active Reachable 18.03.1-ce
mkkxaeqergz8xw21bbkd47q1c swarm03 Ready Active Reachable 18.03.1-ce
上面信息中,AVAILABILITY 表示 Swarm Scheduler 是否可以向集群中的某个节点指派 task,对应有如下三种状态:
- Active:集群中该节点可以被指派task
- Pause:集群中该节点不可以被指派新的task,但是已存在的 task 将被保留
- Drain:集群中该节点不可以被指派新的task,Swarm Scheduler 停掉已存在的 task,并将它们调度到可用的节点
另外,可以看到Manager Status状态也有分类,分别是Leader、Reacheable、Unreachable。
- Leader:对应 Raf t算法的 Leader 节点
- Reacheable:对应 Raft 算法的 Flower 节点,网络可达、可用的 Flower 节点
- Unreachable:对应 Raft 算法的 Flower 节点,网络不可达、不可用的 Flower 节点
查看单个节点详细信息
[root@swarm02 ~]# docker node inspect swarm01
4.高可用实践
4.1 应用服务管理
docker swarm 还可以使用 stack 这一模型,用来部署管理和关联不同的服务。stack 功能比 service 还要强大,因为它具备多服务编排部署的能力。stack file 是一种 yaml 格式的文件,类似于 docker-compose.yml 文件,它定义了一个或多个服务,并定义了服务的环境变量、部署标签、容器数量以及相关的环境特定配置等。
以下实验仅利用stack 创建单一服务
4.1.1 创建服务
服务配置文件docker-compose.yml ,内容如下
version: '3'
services:
web:
image: "httpd:v1"
deploy:
replicas: 3
resources:
limits:
cpus: "0.5"
memory: 256M
restart_policy:
condition: on-failure
ports:
- "7080:80"
volumes:
- /var/www/html:/usr/local/apache2/htdocs
image: "httpd:v1" :httpd 是 docker hub 下载的镜像。提供简单的 httpd 服务,此处用来做服务高可用验证
replicas: 3 表示该服务副本数量为3,可对服务副本进行扩缩容,后续会讲到。
/var/www/html:/usr/local/apache2/htdocs :通过挂载的方式,将宿主机的 /var/www/html 目录挂载到容器中的 /usr/local/apache2/htdocs 目录
在 docker-compose.yml 同级目录下,执行命令
[root@swarm01 swarm]# docker stack deploy -c docker-compose.yml myservice
Creating network myservice_default
Creating service myservice_web
4.1.2 查看服务
查看服务创建是否成功。
[root@swarm01 swarm]# docker stack ls
NAME SERVICES
myservice 1
[root@swarm01 swarm]# docker stack services myservice
ID NAME MODE REPLICAS IMAGE PORTS
kom8x49f7qv2 myservice_web replicated 3/3 httpd:latest *:7080->80/tcp
[root@swarm01 swarm]# docker stack ps myservice
ID NAME IMAGE NODE DESIRED STATE CURRENT STATE ERROR PORTS
sybn1dur1wmw myservice_web.1 httpd:latest swarm03 Running Running 45 seconds ago
mlcb5r9vzv6z myservice_web.2 httpd:latest swarm03 Running Running 45 seconds ago
fw21lcu3zp83 myservice_web.3 httpd:latest swarm01 Running Running 45 seconds ago
可以看到 swarm01 上面运行了1个容器,swarm03 上面运行了2个,而 swarm02 上面一个容器都没有,这是咋回事呢?哦,原来我们在创建集群过程中,对 swarm02 做了状态变更的操作,docker node update --availability drain swarm02
[root@swarm01 swarm]# docker node ls
ID HOSTNAME STATUS AVAILABILITY MANAGER STATUS ENGINE VERSION
epoic1y0vv830vnwbc6nnacjc * swarm01 Ready Active Leader 18.03.1-ce
nsqqv181e0r7mu77azixtqhzl swarm02 Ready Drain Reachable 18.03.1-ce
mkkxaeqergz8xw21bbkd47q1c swarm03 Ready Active Reachable 18.03.1-ce
此时打开浏览器,输入HTTP URL。任意swarm集群节点都可以访问httpd服务。
由于3个宿主机挂载的 /var/www/html 路径未做共享存储,访问到此 service 中不同容器会显示不同的网页内容
4.1.3 服务扩缩容
修改docker-commpose.yml 配置字段 replicas: 5
,将容器个数提升到5个。由于实验环境资源有限,因此这里将swarm02状态变更为可以状态,用以分配容器。
docker node update --availability active swarm02
重新执行部署命令
docker stack deploy -c docker-compose.yml myservice
也可以通过命令直接对服务进行操作,但是不推荐
docker service scale 服务ID=N
docker service update --replicas N 服务ID
[root@swarm01 swarm]# docker stack ps myservice
ID NAME IMAGE NODE DESIRED STATE CURRENT STATE ERROR PORTS
unwepav5z9nz myservice_web.1 httpd:v1 swarm02 Running Running less than a second ago
3j5o1tktcg1l myservice_web.2 httpd:v1 swarm01 Running Preparing 3 seconds ago
wl1unt6lynft myservice_web.3 httpd:v1 swarm03 Running Running less than a second ago
[root@swarm01 swarm]# vi docker-compose.yml
[root@swarm01 swarm]# docker stack deploy -c docker-compose.yml myservice
Updating service myservice_web (id: 85quzwi5k0btkn5wlht4jbco9)
image httpd:v1 could not be accessed on a registry to record
its digest. Each node will access httpd:v1 independently,
possibly leading to different nodes running different
versions of the image.
[root@swarm01 swarm]# docker stack ps myservice
ID NAME IMAGE NODE DESIRED STATE CURRENT STATE ERROR PORTS
unwepav5z9nz myservice_web.1 httpd:v1 swarm02 Running Running 24 seconds ago
3j5o1tktcg1l myservice_web.2 httpd:v1 swarm01 Running Running 31 seconds ago
wl1unt6lynft myservice_web.3 httpd:v1 swarm03 Running Running 24 seconds ago
ujedjxbuffxp myservice_web.4 httpd:v1 swarm01 Running Running less than a second ago
ml9qvjh2add7 myservice_web.5 httpd:v1 swarm02 Running Running less than a second ago
4.1.4 删除服务
例如,删除 myredis 应用服务,执行 docker service rm myredis,则应用服务 myredis 的全部副本都会被删除
本例使用的是 stack ,删除 stack ,即可删除其下的服务
docker stack rm myservice
需要注意的是,对swarm上面服务的操作,都必须在 manager
节点上运行
4.1.5 服务更新
创建服务,在 manager
节点上执行如下命令:
docker service create --replicas 3 --name redis --update-delay 10s redis:3.0.6
上面通过指定 --update-delay
选项,更新服务时,成功部署一个 task,等待10秒钟,然后再部署下一个 task。如果某个服务更新失败,则 Swarm 的调度器就会暂停本次服务的部署更新。
另外,也可以更新已部署服务的 image 版本,执行如下命令:
将 redis 服务对应的 image 版本3.0.6 更新为 3.0.7,同样,如果更新失败,则暂停本次更新。
那么,stack file 如何定义滚动更新呢?
update_config:
parallelism: 2
delay: 10s
修改docker-compose.yml 如下
version: '3'
services:
web:
image: "httpd:v2"
deploy:
replicas: 3
update_config:
parallelism: 2
delay: 30s
resources:
limits:
cpus: "0.5"
memory: 256M
restart_policy:
condition: on-failure
ports:
- "7080:80"
volumes:
- /var/www/html:/usr/local/apache2/htdocs
parallelism 表示同时升级的个数,delay 则表示间隔多长时间升级,同时将httpd 由v1 升级到v2,这里我们使用同一个镜像,只是tag 修改了一下
查看服务状态
[root@swarm01 swarm]# docker stack ps myservice
ID NAME IMAGE NODE DESIRED STATE CURRENT STATE ERROR PORTS
qk8pvvc9nmv0 myservice_web.1 httpd:v2 swarm01 Running Running 56 seconds ago
unwepav5z9nz \_ myservice_web.1 httpd:v1 swarm02 Shutdown Shutdown 48 seconds ago
uyj0pm1df9hl myservice_web.2 httpd:v2 swarm02 Running Running 46 seconds ago
3j5o1tktcg1l \_ myservice_web.2 httpd:v1 swarm01 Shutdown Shutdown about a minute ago
qdjov5zf5alb myservice_web.3 httpd:v2 swarm03 Running Running 10 seconds ago
wl1unt6lynft \_ myservice_web.3 httpd:v1 swarm03 Shutdown Shutdown 12 seconds ago
可以看到同时只有2个容器在升级,同时第3个容器也是在间隔了30s 之后,才开始升级
--filter 过滤条件
docker stack ps --filter "desired-state=running" myservice
4.2 应用服务高可用
在前面创建的myservice的基础上,进行容器应用的高可用验证。
4.2.1 模拟容器故障
查看当前服务状态
[root@swarm01 swarm]# docker stack ps --filter "desired-state=running" myservice
ID NAME IMAGE NODE DESIRED STATE CURRENT STATE ERROR PORTS
qk8pvvc9nmv0 myservice_web.1 httpd:v2 swarm01 Running Running 16 minutes ago
uyj0pm1df9hl myservice_web.2 httpd:v2 swarm02 Running Running 16 minutes ago
qdjov5zf5alb myservice_web.3 httpd:v2 swarm03 Running Running 15 minutes ago
swarm01-03 分别运行1个容器。现在登陆swam03节点,将其容器进程Kill 掉。模拟容器意外故障。
将stack ps 得到的swarm03节点的ID qdjov5zf5alb
代入命令inspect。
[root@swarm01 swarm]# docker inspect qdjov5zf5alb
[
{
"ID": "qdjov5zf5albdm1o7vhuwoxjt",
...
"Spec": {
"ContainerSpec": {
"Image": "httpd:v2",
"Labels": {
"com.docker.stack.namespace": "myservice"
},
"Privileges": {
"CredentialSpec": null,
"SELinuxContext": null
},
"Mounts": [
{
"Type": "bind",
"Source": "/var/www/html",
"Target": "/usr/local/apache2/htdocs"
}
],
"Isolation": "default"
},
"Resources": {
"Limits": {
"NanoCPUs": 500000000,
"MemoryBytes": 268435456
}
},
....
"ServiceID": "85quzwi5k0btkn5wlht4jbco9",
"Slot": 3,
"NodeID": "mkkxaeqergz8xw21bbkd47q1c",
"Status": {
"Timestamp": "2018-08-07T09:02:25.674376822Z",
"State": "running",
"Message": "started",
"ContainerStatus": {
"ContainerID": "fa7d228e0c1981bfc78bca0b81363d7ca44cac99844c2996afe528ae3ae9a129",
"PID": 8852,
"ExitCode": 0
},
"PortStatus": {}
},
登陆swarm03节点,查看容器fa7d22 对应的进程。得到其进程号,并将其杀死。
[root@swarm03 /]# ps -ef|grep fa7d228e0c19
root 8832 1129 0 05:02 ? 00:00:00 docker-containerd-shim -namespace moby -workdir /var/lib/docker/containerd/daemon/io.containerd.runtime.v1.linux/moby/fa7d228e0c1981bfc78bca0b81363d7ca44cac99844c2996afe528ae3ae9a129 -address /var/run/docker/containerd/docker-containerd.sock -containerd-binary /usr/bin/docker-containerd -runtime-root /var/run/docker/runtime-runc
root 9989 1090 0 05:32 pts/0 00:00:00 grep --color=auto fa7d228e0c19
[root@swarm03 /]# kill -9 8832
4.2.2 故障查看
立即查看服务状态。
[root@swarm03 /]# docker stack ps myservice
ID NAME IMAGE NODE DESIRED STATE CURRENT STATE ERROR PORTS
qk8pvvc9nmv0 myservice_web.1 httpd:v2 swarm01 Running Running 32 minutes ago
unwepav5z9nz \_ myservice_web.1 httpd:v1 swarm02 Shutdown Shutdown 32 minutes ago
uyj0pm1df9hl myservice_web.2 httpd:v2 swarm02 Running Running 32 minutes ago
3j5o1tktcg1l \_ myservice_web.2 httpd:v1 swarm01 Shutdown Shutdown 32 minutes ago
hx741f0kye5a myservice_web.3 httpd:v2 swarm03 Running Running 29 seconds ago
qdjov5zf5alb \_ myservice_web.3 httpd:v2 swarm03 Shutdown Failed 36 seconds ago "task: non-zero exit (137)"
wl1unt6lynft \_ myservice_web.3 httpd:v1 swarm03 Shutdown Shutdown 31 minutes ago
可以看到,swarm03上面的容器 myservice_web.3 立即被重启,故障即刻恢复
4.2.3 结论
通过以上实验我们得出,在 docker swarm 集群服务中,任意容器出现故障意外死亡,都会被重启。满足应用服务高可用的需求。但是,可能会有同学有疑问,你这个只是kill掉进程,模拟的是进程级别的故障,如果是主机宕机呢,swarm是否也能满足呢?答案是肯定的!
就让我们继续模拟主机级别的故障,验证服务的高可用。同时,由于我们环境配置的均是 manager
节点,我们也可以同时验证 Swarm Manager 的高可用
4.3 Swarm Manager 高可用
查看当前swarm集群节点信息
[root@swarm01 swarm]# docker node ls
ID HOSTNAME STATUS AVAILABILITY MANAGER STATUS ENGINE VERSION
epoic1y0vv830vnwbc6nnacjc * swarm01 Ready Active Leader 18.03.1-ce
nsqqv181e0r7mu77azixtqhzl swarm02 Ready Active Reachable 18.03.1-ce
mkkxaeqergz8xw21bbkd47q1c swarm03 Ready Active Reachable 18.03.1-ce
swarm01 为swarm 集群管理节点。倘若 swarm01 突然宕机关机会怎样呢,整个swarm 集群会失效,陷入瘫痪吗?其上运行的容器服务是否会全部挂掉,无法继续提供服务?
4.3.1 模拟主机宕机
将虚拟机swarm01 直接关机。
4.3.2 故障查看
登陆swarm03 ,查看swarm集群状态。
[root@swarm03 /]# docker node ls
ID HOSTNAME STATUS AVAILABILITY MANAGER STATUS ENGINE VERSION
epoic1y0vv830vnwbc6nnacjc swarm01 Unknown Active Unreachable 18.03.1-ce
nsqqv181e0r7mu77azixtqhzl swarm02 Ready Active Reachable 18.03.1-ce
mkkxaeqergz8xw21bbkd47q1c * swarm03 Ready Active Leader 18.03.1-ce
在经历短暂的间隙后,可看到 swarm 集群认定 swarm01 现在处于Unknown 状态,MANAGER STATUS 处于 Unreachable 状态。同时,swarm 集群基于 raft 算法,重新推举出新的 Leader 为 swarm03。
再过一段时间,swarm01 状态变成 Down
[root@swarm03 ~]# docker node ls
ID HOSTNAME STATUS AVAILABILITY MANAGER STATUS ENGINE VERSION
epoic1y0vv830vnwbc6nnacjc swarm01 Down Active Unreachable 18.03.1-ce
nsqqv181e0r7mu77azixtqhzl swarm02 Ready Active Reachable 18.03.1-ce
mkkxaeqergz8xw21bbkd47q1c * swarm03 Ready Active Leader 18.03.1-ce
查看服务状态
[root@swarm03 /]# docker stack ps myservice
ID NAME IMAGE NODE DESIRED STATE CURRENT STATE ERROR PORTS
zfbvcz5iu8g7 myservice_web.1 httpd:v2 swarm03 Running Running 2 minutes ago
qk8pvvc9nmv0 \_ myservice_web.1 httpd:v2 swarm01 Shutdown Running about an hour ago
unwepav5z9nz \_ myservice_web.1 httpd:v1 swarm02 Shutdown Shutdown about an hour ago
uyj0pm1df9hl myservice_web.2 httpd:v2 swarm02 Running Running 3 minutes ago
3j5o1tktcg1l \_ myservice_web.2 httpd:v1 swarm01 Shutdown Shutdown about an hour ago
hx741f0kye5a myservice_web.3 httpd:v2 swarm03 Running Running 3 minutes ago
qdjov5zf5alb \_ myservice_web.3 httpd:v2 swarm03 Shutdown Failed 21 minutes ago "task: non-zero exit (137)"
wl1unt6lynft \_ myservice_web.3 httpd:v1 swarm03 Shutdown Shutdown about an hour ago
可以看到容器服务个数依然维持在3个,原先在 swarm01 上面运行的容器,被分配到 swarm02 和 swarm03 上面。现在对服务进行扩容操作,以验证此时swarm集群是否对服务还有管理能力。
[root@swarm03 swarm]# docker stack deploy -c docker-compose.yml myservice
Updating service myservice_web (id: 85quzwi5k0btkn5wlht4jbco9)
image httpd:v2 could not be accessed on a registry to record
its digest. Each node will access httpd:v2 independently,
possibly leading to different nodes running different
versions of the image.
[root@swarm03 swarm]# docker stack ps myservice
ID NAME IMAGE NODE DESIRED STATE CURRENT STATE ERROR PORTS
zfbvcz5iu8g7 myservice_web.1 httpd:v2 swarm03 Running Running 6 minutes ago
qk8pvvc9nmv0 \_ myservice_web.1 httpd:v2 swarm01 Shutdown Running about an hour ago
unwepav5z9nz \_ myservice_web.1 httpd:v1 swarm02 Shutdown Shutdown about an hour ago
uyj0pm1df9hl myservice_web.2 httpd:v2 swarm02 Running Running 6 minutes ago
3j5o1tktcg1l \_ myservice_web.2 httpd:v1 swarm01 Shutdown Shutdown about an hour ago
hx741f0kye5a myservice_web.3 httpd:v2 swarm03 Running Running 6 minutes ago
qdjov5zf5alb \_ myservice_web.3 httpd:v2 swarm03 Shutdown Failed 25 minutes ago "task: non-zero exit (137)"
wl1unt6lynft \_ myservice_web.3 httpd:v1 swarm03 Shutdown Shutdown about an hour ago
6nifzsbysug5 myservice_web.4 httpd:v2 swarm02 Running Running 20 seconds ago
uwgnl2usv59a myservice_web.5 httpd:v2 swarm02 Running Running 20 seconds ago
可以看到,此时 swarm 集群依然具有管理能力(服务扩容能力),也从侧面验证 swarm manager 的高可用能力。
此时重启 swarm01 ,看看 swarm01 节点是否会自动加入集群。
登陆swarm01 ,查看集群状态
[root@swarm01 ~]# docker node ls
Error response from daemon: Swarm is encrypted and needs to be unlocked before it can be used. Please use "docker swarm unlock" to unlock it.
可以看到,此时swarm01 处于被锁的状态。需要解锁。
[root@swarm01 ~]# docker swarm unlock
Please enter unlock key:
Error response from daemon: invalid key string
那么 unlock key 从哪里取值呢?答案就是,需要在可用的集群管理节点,比如 swarm03 上面执行命令
[root@swarm03 ~]# docker swarm unlock-key
To unlock a swarm manager after it restarts, run the `docker swarm unlock`
command and provide the following key:
SWMKEY-1-796L7+nU55V/qGCMPgBvKS/5PyotvNaKPS4SJ0AUe+g
Please remember to store this key in a password manager, since without it you
will not be able to restart the manager.
通过该 unlock key : SWMKEY-1-796L7+nU55V/qGCMPgBvKS/5PyotvNaKPS4SJ0AUe+g ,重新加入集群。
此时在 swarm01 上面查看集群状态,即可看到已经重新加入集群。
[root@swarm01 ~]# docker node ls
ID HOSTNAME STATUS AVAILABILITY MANAGER STATUS ENGINE VERSION
epoic1y0vv830vnwbc6nnacjc * swarm01 Ready Active Reachable 18.03.1-ce
nsqqv181e0r7mu77azixtqhzl swarm02 Ready Active Reachable 18.03.1-ce
mkkxaeqergz8xw21bbkd47q1c swarm03 Ready Active Leader 18.03.1-ce
但是如果再把 swarm03 关掉,即同时宕掉2个节点,则此时3个管理节点,只剩下一个节点,不满足 Raft 协议的节点个数要求(>N/2),集群功能就会失效,不能再管理集群,但是集群上的服务还能够继续运行。
继续我们的脚步,将swarm03,swarm01 都关机。
登陆swarm02,查看集群状态
[root@swarm02 ~]# docker node ls
Error response from daemon: rpc error: code = Unknown desc = The swarm does not have a leader. It's possible that too few managers are online. Make sure more than half of the managers are online.
[root@swarm02 ~]# docker stack ps myservice
Error response from daemon: rpc error: code = Unknown desc = The swarm does not have a leader. It's possible that too few managers are online. Make sure more than half of the managers are online.
可以看到,此时集群功能已经失效,不能通过 swarm 命令查看集群和管理集群了。那么运行其上的任务呢?
[root@swarm02 ~]# docker container ls
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
2cc1b76be2cf httpd:v2 "httpd-foreground" 2 hours ago Up 2 hours 80/tcp myservice_web.5.uwgnl2usv59aygb5e9a8cig2y
96034bff8902 httpd:v2 "httpd-foreground" 2 hours ago Up 2 hours 80/tcp myservice_web.4.6nifzsbysug5medburznrrr7h
82beb10e4cac httpd:v2 "httpd-foreground" 3 hours ago Up 3 hours 80/tcp myservice_web.2.uyj0pm1df9hlx9vdvck36ilbl
ea9f879cdf12 composetest_web:v1 "python app.py" 3 weeks ago Up 5 hours 0.0.0.0:5000->5000/tcp elegant_borg
还好还好,通过 docker container ls
查看swarm02节点上的容器,可以看到仍然有3个容器在运行,这些都是之前已经分配好的。显然,swarm集群即使失效了,也不会影响其上运行的容器服务正常运行,只是失去了管理和调度的能力了。
此时,如果再次打开 swarm01 和 swarm03 的电源,他们会重新组建集群吗?从上文中我们知道,离线的 manager 节点要重新加入集群需要解锁,而钥匙需要通过原集群运行 docker swarm unlock-key
获取。那么显然,原集群已经失效了。那此时会怎样呢?
不幸的是,确实swarm01 和 swarm03 都无法自动加入集群,确实需要通过docker swarm unlock
进行解锁。但是幸运的是,unlock key 是不变的,跟刚才 swarm01 宕机时重新加入的 key 是一样的。分别在 swarm01 和 swarm03 执行解锁操作。集群最终恢复正常。因此需要在创建集群后,第一时间保存 unlock key 。
[root@swarm03 ~]# docker node ls
ID HOSTNAME STATUS AVAILABILITY MANAGER STATUS ENGINE VERSION
epoic1y0vv830vnwbc6nnacjc swarm01 Ready Active Reachable 18.03.1-ce
nsqqv181e0r7mu77azixtqhzl swarm02 Ready Active Leader 18.03.1-ce
mkkxaeqergz8xw21bbkd47q1c * swarm03 Ready Active Reachable 18.03.1-ce
注:在创建集群的时候,可设置自动解锁,即主机重启时,不用输入密钥,即可重新加入集群
docker swarm init --autolock=false
docker swarm update --autolock=false
4.3.3 结论
从以上实验中也可以看出,只要管理节点正常,服务的高可用就能达到,但是管理节点的个数必须保持在总的管理节点个数的一半以上,即3个只允许宕机一台,5台只允许宕机2台。而总的管理节点的个数一般不超过7个,如果太多的话,集群内管理节点通信消耗会比较大。由于偶数性价比不高(因为4台也只能宕机掉1台跟3台时是一样的),所以管理节点的个数一般都是奇数。
管理节点的个数以及允许宕机的个数如下:
mannager node | 允许宕机个数 | 服务运行状态 |
---|---|---|
3 | 1 | 正常 |
5 | 2 | 正常 |
7 | 3 | 正常 |
4.4 网络故障转移
4.4.1 模拟网络分区
环境说明:仍然是3台虚拟机组成的 swarm 管理集群
集群已使用 --autolock=false
重新初始化集群:
docker swarm init --autolock=false --advertise-addr 172.21.111.56 --listen-addr 172.21.111.56:2377
hd_hd-1服务:运行4个副本,分别 swarm01 和 swarm02 各一个容器,swarm03 运行2个容器
将 swarm02 网卡拔掉,模拟网络故障分区
4.4.2 观察swarm node信息
查看集群信息和服务状态
[root@swarm01 httpd]# docker node ls
ID HOSTNAME STATUS AVAILABILITY MANAGER STATUS ENGINE VERSION
wk8jaypu23vr63082arpsl4ut * swarm01 Ready Active Leader 18.03.1-ce
q9lcw91vus73wyly174iy72h3 swarm02 Down Active Unreachable 18.03.1-ce
1xelzfyr5kbn7kk70le45anei swarm03 Ready Active Reachable 18.06.1-ce
[root@swarm01 httpd]# docker service ps hd_hd-1
ID NAME IMAGE NODE DESIRED STATE CURRENT STATE ERROR PORTS
t604bqtcj588 hd_hd-1.1 httpd:latest swarm01 Running Running 2 minutes ago
xfajbfz51nd9 \_ hd_hd-1.1 httpd:latest swarm02 Shutdown Running 8 minutes ago
8clt10jl1xyf hd_hd-1.2 httpd:latest swarm01 Running Running 6 minutes ago
py5cavsog5mo hd_hd-1.3 httpd:latest swarm03 Running Running 7 minutes ago
oigopryy1kro hd_hd-1.4 httpd:latest swarm03 Running Running 7 minutes ago
我们可以发现,集群认为 swarm02 现在已经失联(不论是宕机还是网络端开)。现在 swarm02 上面的容器被迁移到swarm01 上面(调度策略应该是 swarm01 上面目前运行的容器个数比 swarm03 少)。
通过虚拟机控制台登陆 swarm02,验证集群功能和容器是否在运行
我们可以发现,由于断网,swarm02 当前是一个单独节点,根据 raft 算法,处于 swarm 集群功能不可用状态。docker ps 查看容器,发现容器仍然在正常运行。得出结论,swarm 集群功能失效,但是不影响原先已经运行的 docker 容器
综合 swarm01/swarm03 上面的容器个数和 swarm02 上面的容器个数,现在已经有5个容器了。而我们预设的容器个数是4个。那么当 swarm02 重新加入集群,会发生什么事情呢?
4.4.3 网络故障恢复
把 swarm02 网卡重新接上,swarm02 会自动加入集群,查看集群信息和服务信息。
[root@swarm01 httpd]# docker node ls
ID HOSTNAME STATUS AVAILABILITY MANAGER STATUS ENGINE VERSION
lkivi02vx5z939z0x7lacuarl * swarm01 Ready Active Leader 18.03.1-ce
pdp0awtf34o4x60x812h07a6e swarm02 Ready Active Reachable 18.03.1-ce
qavrh9e6pjdq2aoxpucl6nohm swarm03 Ready Active Reachable 18.06.1-ce
[root@swarm01 httpd]# docker service ps hd_hd-1
ID NAME IMAGE NODE DESIRED STATE CURRENT STATE ERROR PORTS
pepxi7bmzi8r hd_hd-1.1 httpd:latest swarm01 Running Running 2 minutes ago
yf42dr6fqvl5 \_ hd_hd-1.1 httpd:latest swarm02 Shutdown Shutdown 2 minutes ago
j6iq7tpsnwb0 hd_hd-1.2 httpd:latest swarm03 Running Running 2 minutes ago
k23a3ezbocit hd_hd-1.3 httpd:latest swarm03 Running Running 2 minutes ago
bqra1k9m0ojc hd_hd-1.4 httpd:latest swarm01 Running Running 2 minutes ago
我们发现 swarm02 已经正常加入集群。登陆 swarm02,查看 swarm02 上面原先的容器也已经停掉了,符合我们的预期
5.附录
5.1参考文章:
docker swarm介绍:
http://shiyanjun.cn/archives/1625.html
https://jiayi.space/post/docker-swarmrong-qi-ji-qun-guan-li-gong-ju
http://www.shangyang.me/2018/02/01/docker-swarm-03-architect/
http://blog.51cto.com/cloudman/1952873
https://www.cnblogs.com/bigberg/p/8761047.html
服务发现:https://success.docker.com/article/ucp-service-discovery
raft协议:http://thesecretlivesofdata.com/raft/
5.2 Swarm Node 节点操作
5.2.1 状态变更
前面我们已经提到过,节点的 AVAILABILITY 有三种状态:Active、Pause、Drain,对某个节点进行变更,可以将其AVAILABILITY 值通过 Docker CLI 修改为对应的状态即可,下面是常见的变更操作:
- 设置
manager
节点只具有管理功能 - 对服务进行停机维护,可以修改
AVAILABILITY
为Drain
状态 - 暂停一个节点,然后该节点就不再接收新的 task
- 恢复一个不可用或者暂停的节点
例如,将 manager
节点的 AVAILABILITY
值修改为Drain
状态,使其只具备管理功能,执行如下命令:
[root@swarm02 ~]# docker node update --availability drain swarm02
swarm02
[root@swarm02 ~]# docker node ls
ID HOSTNAME STATUS AVAILABILITY MANAGER STATUS ENGINE VERSION
epoic1y0vv830vnwbc6nnacjc swarm01 Ready Active Leader 18.03.1-ce
nsqqv181e0r7mu77azixtqhzl * swarm02 Ready Drain Reachable 18.03.1-ce
mkkxaeqergz8xw21bbkd47q1c swarm03 Ready Active Reachable 18.03.1-ce
这样,manager
节点不能被指派 task,也就是不能部署实际的Docker容器来运行服务,而只是作为管理节点的角色。
5.2.2 添加标签
每个节点的主机配置情况可能不同,比如有的适合运行 CPU 密集型应用,有的适合运行 IO 密集型应用,Swarm 支持给每个节点添加标签元数据,这样可以根据节点的标签,来选择性地调度某个服务部署到期望的一组节点上。 给 Swarm 集群中的某个 worker
节点添加标签,执行如下命令格式如下:
[root@swarm02 ~]# docker node update --label-add app=dev swarm02
swarm02
5.2.3 提权/降权
改变节点的角色,worker
节点可以变为 manager
节点,manager
节点也可以变worker
节点,对应操作分别是:
# 将一个工作节点升为管理节点
docker node demote swarm02
# 将一个管理节点降为工作节点
docker node promote swarm02
5.3 网络管理
5.3.1 添加overlay 网络
overlay 网络是 swarm 中默认的跨主机网络模型,在 Swarm 集群中可以使用 overlay 网络来连接到一个或多个服务。首先,我们需要创建在 manager
节点上创建一个 overlay 网络,执行如下命令:
docker network create --driver overlay my-network
创建完 overlay 网络 my-network 以后,Swarm集群中所有的 manager
节点都可以访问该网络。然后,我们在创建服务的时候,只需要指定使用的网络为已存在的 overlay 网络即可,如下命令所示:
docker service create --replicas 3 --network my-network --name myweb nginx
这样,如果Swarm集群中其他节点上的 Docker 容器也使用 my-network 这个网络,那么处于该 overlay 网络中的所有容器之间,通过网络可以连通。
5.4 API
$ curl --unix-socket /var/run/docker.sock -H "Content-Type: application/json" \
-d '{"Image": "alpine", "Cmd": ["echo", "hello world"]}' \
-X POST http:/v1.24/containers/create
{"Id":"1c6594faf5","Warnings":null}
$ curl --unix-socket /var/run/docker.sock -X POST http:/v1.24/containers/1c6594faf5/start
$ curl --unix-socket /var/run/docker.sock -X POST http:/v1.24/containers/1c6594faf5/wait
{"StatusCode":0}
$ curl --unix-socket /var/run/docker.sock "http:/v1.24/containers/1c6594faf5/logs?stdout=1"
hello world
https://docs.docker.com/develop/sdk/#sdk-and-api-quickstart
https://www.programmableweb.com/api/docker-swarm
5.5 Docker 三剑客
- docker-compose 负责组织应用,应用由哪些服务组成,每个服务由多少个容器,均在该配置文件里面配置。
- docker-machine 负责提供虚拟机,该虚拟机具备docker daemon服务能力。创建的虚拟机,可以用来组成docker swarm集群。docker-machine 并不是必须的功能。完全可以手动安装docker 服务。
- docker swarm 负责组织docker集群,组织跨主机的docker集群管理能力。
转自
https://zhoujinl.github.io/
https://docs.docker.com/engine/swarm/
根据自己的理解在原文基础上修改调整,喜欢请点个赞,谢谢