一篇文章带你彻底了解Kubernetes

Kubernetes 已经成为容器编排领域的王者,它是基于容器的集群编排引擎,具备扩展集群、滚动升级回滚、弹性伸缩、自动治愈、服务发现等多种特性能力。

本文将带着大家快速了解 Kubernetes ,了解我们谈论 Kubernetes 都是在谈论什么。

Kubernetes 架构

image.png

从宏观上来看 Kubernetes 的整体架构,包括 Master、Node 以及 Etcd。

Master 即主节点,负责控制整个 Kubernetes 集群,它包括 API Server、Scheduler、Controller 等组成部分,它们都需要和 Etcd 进行交互以存储数据:

  • API Server:主要提供资源操作的统一入口,这样就屏蔽了与 Etcd 的直接交互。功能包括安全、注册与发现等。
  • Scheduler:负责按照一定的调度规则将 Pod 调度到 Node 上。
  • Controller:资源控制中心,确保资源处于预期的工作状态。

Node 即工作节点,为整个集群提供计算力,是容器真正运行的地方,包括运行容器、kubelet、kube-proxy:

  • kubelet:主要工作包括管理容器的生命周期、结合 cAdvisor 进行监控、健康检查以及定期上报节点状态。
  • kube-proxy:主要利用 service 提供集群内部的服务发现和负载均衡,同时监听 service/endpoints 变化并刷新负载均衡。

从创建 Deployment 开始

image.png

Deployment 是用于编排 Pod 的一种控制器资源,我们会在后面做介绍。这里以 Deployment 为例,来看看架构中的各组件在创建 Deployment 资源的过程中都干了什么。

步骤如下:

  • 首先是 kubectl 发起一个创建 deployment 的请求。
  • apiserver 接收到创建 deployment 请求,将相关资源写入 etcd;之后所有组件与 apiserver/etcd 的交互都是类似的。
  • deployment controller list/watch 资源变化并发起创建 replicaSet 请求
  • replicaSet controller list/watch 资源变化并发起创建 pod 请求。
  • scheduler 检测到未绑定的 pod 资源,通过一系列匹配以及过滤选择合适的 node 进行绑定。
  • kubelet 发现自己 node 上需创建新 pod,负责 pod 的创建及后续生命周期管理。
  • kube-proxy 负责初始化 service 相关的资源,包括服务发现、负载均衡等网络规则。

至此,经过 Kubenetes 各组件的分工协调,完成了从创建一个 Deployment 请求开始到具体各 Pod 正常运行的全过程。

Pod

在 Kubernetes 众多的 API 资源中,Pod 是最重要和基础的,是最小的部署单元。

首先我们要考虑的问题是,我们为什么需要 Pod?Pod 可以说是一种容器设计模式,它为那些”超亲密”关系的容器而设计,我们可以想象 Servelet 容器部署 War 包、日志收集等场景。

这些容器之间往往需要共享网络、共享存储、共享配置,因此我们有了 Pod 这个概念。

image.png

对于 Pod 来说,不同 Container 之间通过 Infra Container 的方式统一识别外部网络空间,而通过挂载同一份 Volume 就自然可以共享存储了,比如它对应宿主机上的一个目录。

容器编排

容器编排是 Kubernetes 的看家本领了,所以我们有必要了解一下。

Kubernetes 中有诸多编排相关的控制资源,例如编排无状态应用的 Deployment,编排有状态应用的 Statefulset,编排守护进程 Daemonset 以及编排离线业务的 job/cronjob 等等。

我们还是以应用最广泛的 Deployment 为例。Deployment、Replicatset、Pod 之间的关系是一种层层控制的关系。

简单来说,Replicaset 控制 Pod 的数量,而 Deployment 控制 Replicaset 的版本属性。

这种设计模式也为两种最基本的编排动作实现了基础,即数量控制的水平扩缩容、版本属性控制的更新/回滚。

水平扩缩容

image.png

水平扩缩容非常好理解,我们只需修改 Replicaset 控制的 Pod 副本数量即可,比如从 2 改到 3,那么就完成了水平扩容这个动作,反之即水平收缩。

更新/回滚

image.png

更新/回滚则体现了 Replicaset 这个对象的存在必要性。例如我们需要应用 3 个实例的版本从 v1 改到 v2。

那么 v1 版本 Replicaset 控制的 Pod 副本数会逐渐从 3 变到 0,而 v2 版本 Replicaset 控制的 Pod 数会注解从 0 变到 3,当 Deployment 下只存在 v2 版本的 Replicaset 时变完成了更新。回滚的动作与之相反。

滚动更新

可以发现,在上述例子中,我们更新应用,Pod 总是一个一个升级,并且最小有 2 个 Pod 处于可用状态,最多有 4 个 Pod 提供服务。

这种”滚动更新”的好处是显而易见的,一旦新的版本有了 Bug,那么剩下的 2 个 Pod 仍然能够提供服务,同时方便快速回滚。

在实际应用中我们可以通过配置 RollingUpdateStrategy 来控制滚动更新策略。

maxSurge 表示 Deployment 控制器还可以创建多少个新 Pod;而 maxUnavailable 指的是,Deployment 控制器可以删除多少个旧 Pod。

Kubernetes 中的网络

我们了解了容器编排是怎么完成的,那么容器间的又是怎么通信的呢?

image.png

讲到网络通信,Kubernetes 首先得有“三通”基础:

  • Node 到 Pod 之间可以通
  • Node 的 Pod 之间可以通
  • 不同 Node 之间的 Pod 可以通

简单来说,不同 Pod 之间通过 cni0/docker0 网桥实现了通信,Node 访问 Pod 也是通过 cni0/docker0 网桥通信即可。

而不同 Node 之间的 Pod 通信有很多种实现方案,包括现在比较普遍的 Flannel 的 vxlan/hostgw 模式等。

Flannel 通过 Etcd 获知其他 Node 的网络信息,并会为本 Node 创建路由表,最终使得不同 Node 间可以实现跨主机通信。

微服务—Service

在了解接下来的内容之前,我们得先了解一个很重要的资源对象:Service。

我们为什么需要 Service 呢?在微服务中,Pod 可以对应实例,那么 Service 对应的就是一个微服务。

而在服务调用过程中,service 的出现解决了两个问题:

  • Pod 的 IP 不是固定的,利用非固定 IP 进行网络调用不现实
  • 服务调用需要对不同 Pod 进行负载均衡

Service 通过 Label 选择器选取合适的 Pod,构建出一个 Endpoints,即 Pod 负载均衡列表。

实际运用中,一般我们会为同一个微服务的 Pod 实例都打上类似 app=xxx 的标签,同时为该微服务创建一个标签选择器为 app=xxx 的 Service。

Kubernetes 中的服务发现与网络调用

在有了上述“三通”的网络基础后,我们可以开始微服务架构中的网络调用在 Kubernetes 中是怎么实现的了。

这部分内容其实在说说 Kubernetes 是怎么实现服务发现的已经讲得比较清楚了,比较细节的地方可以参考上述文章,这里做一个简单的介绍。

服务间调用

首先是东西向的流量调用,即服务间调用。这部分主要包括两种调用方式,即 ClusterIp 模式以及 DNS 模式。

ClusterIp 是 Service 的一种类型,在这种类型模式下,kube-proxy 通过 iptables/ipvs 为 Service 实现了一种 VIP(虚拟 IP)的形式。只需要访问该 VIP,即可负载均衡地访问到 Service 背后的 Pod。

image.png

上图是 ClusterIp 的一种实现方式,此外还包括 userSpace 代理模式(基本不用),以及 ipvs 模式(性能更好)。

DNS 模式很好理解,对 ClusterIp 模式的 Service 来说,它有一个 A 记录是
service-name.namespace-name.svc.cluster.local,指向 ClusterIp 地址。所以一般使用过程中,我们直接调用 service-name 即可。

服务外访问

image.png

南北向的流量,即外部请求访问 Kubernetes 集群,主要包括三种方式:

  • nodePort
  • loadbalancer
  • ingress

nodePort 同样是 Service 的一种类型,通过 IPtables 赋予了调用宿主机上的特定 Port 就能访问到背后 Service 的能力。

Loadbalancer 则是另一种 Service 类型,通过公有云提供的负载均衡器实现。

我们访问 100 个服务可能需要创建 100 个 nodePort/Loadbalancer。我们希望通过一个统一的外部接入层访问内部 Kubernetes 集群,这就是 Ingress 的功能。

Ingress 提供了统一接入层,通过路由规则的不同匹配到后端不同的 Service 上。

Ingress 可以看做是“Service 的 Service”。Ingress 在实现上往往结合 nodePort 以及 Loadbalancer 完成功能。

到现在为止,我们简单了解了 Kubernetes 的相关概念,它大致是怎么运作的,以及微服务是怎么运行在 Kubernetes 中的。于是当我们听到别人讨论 Kubernetes 时,我们可以知道他们在讨论什么。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 220,367评论 6 512
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,959评论 3 396
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 166,750评论 0 357
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 59,226评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 68,252评论 6 397
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,975评论 1 308
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,592评论 3 420
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,497评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 46,027评论 1 319
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,147评论 3 340
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,274评论 1 352
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,953评论 5 347
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,623评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,143评论 0 23
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,260评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,607评论 3 375
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,271评论 2 358

推荐阅读更多精彩内容