kubernetes容器化方案验证报告

1、服务器列表

Confluence5.10.8 wiki迁移到简书


图片.png

对于有状态的公共集群,采用虚拟机方式部署。(这些服务也可以容器化部署,但目前技术储备不足,一旦出问题排查麻烦)

图片.png

2、相关信息

kubernetes版本:v1.12.2

docker版本:17.03.1-ce

kubernetes-dashboard:https://10.66.221.92:30443/

traefik负载均衡:http://10.66.221.92:8081/

registry私库地址:http://10.66.221.138:5500/

镜像列表:http://10.66.221.138:5500/v2/_catalog

镜像标签列表:http://10.66.221.138:5500/v2/{镜像路径}/tags/list

dashboard-token令牌:

eyJhbGciOiJSUzI1NiIsImtpZCI6IiJ9.eyJpc3MiOiJrdWJlcm5ldGVzL3NlcnZpY2VhY2NvdW50Iiwia3ViZXJuZXRlcy5pby9zZXJ2aWNlYWNjb3VudC9uYW1lc3BhY2UiOiJrdWJlLXN5c3RlbSIsImt1YmVybmV0ZXMuaW8vc2VydmljZWFjY291bnQvc2VjcmV0Lm5hbWUiOiJhZG1pbi10b2tlbi1nMjl0NyIsImt1YmVybmV0ZXMuaW8vc2VydmljZWFjY291bnQvc2VydmljZS1hY2NvdW50Lm5hbWUiOiJhZG1pbiIsImt1YmVybmV0ZXMuaW8vc2VydmljZWFjY291bnQvc2VydmljZS1hY2NvdW50LnVpZCI6IjIwMGQ0OGNjLWZjM2EtMTFlOC1hYjExLTAwNTA1Njg3MDYxMCIsInN1YiI6InN5c3RlbTpzZXJ2aWNlYWNjb3VudDprdWJlLXN5c3RlbTphZG1pbiJ9.PMEbhFmJwg9Zj62XzrA1hcqHe2CGpqk9Ne6gX8J6B-iMXbHhHtrMLrxA2o6e68HQ2_DToI-cRsMuSwzb1iugslPmJIvgHgJ0kj3yW-tR6NZ4Azi8ua8LMLVg8a2gUCiumNezlmcp4zqmay1leoxaNvrNeLOqmrBoRNkyvMo_tOLYgK28iJrpPeF1OoiVnJN7fghu895ZqWs_0maAd891HiIjArW1_bt30SVy5tU2I6yiCwqiAztLSrM9Jd24EG8jxfov7gCN5Lsp80E-UtRHADQt8H55r0jAnKxxzdfy2NfeDcUteYXiNQtyIPpqgigC-rJHWPbdZw9SEq4X-dgdUQ

3、技术选型和验证

3.1、docker容器管理平台选型

图片.png
图片.png

根据上面2个表格得出:

swarm :上手最简单,但是目前还不够完善,社区也不活跃, 离生产环境有一定距离。

mesos: 上手复杂,社区也不活跃,超大集群可考虑。

kubernetes:上手较为复杂,有各种成熟方案,但是社区活跃度高, Kubernetes于2017底在容器编排上胜出,目前大量公司都在使用。

rancher:2.0简化了kubernetes部署,但是我在实际使用中第一次没部署成功,资料很少,社区活跃度不高。

综上对比, 我选择了kubernetes作为容器编排工具,并使用官方kubeadm部署方式。

3.2、业务应用部署

只需要准备好k8s deployment等配置文件,就可通过dashboard管理平台执行完成应用部署。

3.3、服务动态扩缩

可直接在dashboard管理平台操作,随时扩容应用运行实例个数。

3.4、服务容器镜像构建方案

3.4.1、k8s镜像私库方式

选择docker官方registry镜像部署。

docker run -d -p 5000:5000 -v /opt/data/registry:/var/lib/registry registry

k8s集群Node节点需要加入镜像白名单:

vim /etc/docker/daemon.json

图片.png

3.4.2、打包发布镜像

图片.png

选择灵雀云平台用于代码打包和镜像构建

  • 保持与公司开发流程和构建镜像一致。
  • 灵雀云也是基于kubenetes二次开发,部署方式一致,现有容器化的服务不需要特别改造。
  • 考虑到本地化环境网络隔离问题,我们交付给本地化部署的是镜像文件。

过程步骤:

开发人员提交代码-->通过灵雀云平台构建镜像-->人工导出服务镜像文件-->人工将镜像导入到本地环境镜像私库

图片.png

3.4.2、k8s部署服务

一个业务服务部署只需要编写Deployment,Service,Ingress 3个yaml配置文件, 通过kubernetes-dashboard管理平台执行即可完成部署。

|

<pre style="margin: 0px; tab-size: 4; white-space: pre-wrap;">apiVersion: apps/v1beta2
kind: Deployment
metadata:
labels:
app: deployment-default-hello-world
name: deployment-tutum-hello-world
namespace: cloud

spec:
selector:
matchLabels:
app: deployment-default-hello-world
replicas: 1
template:
metadata:
labels:
app: deployment-default-hello-world
spec:
containers:
- image: tutum/hello-world
name: tutum-hello-world
ports:
- containerPort: 80
name: web


apiVersion: v1
kind: Service
metadata:
name: service-tutum-hello-world
labels:
app: deployment-default-hello-world
namespace: cloud
spec:
type: NodePort
ports:

  • port: 80
    targetPort: 80
    nodePort: 31000
    selector:
    app: deployment-default-hello-world

apiVersion: extensions/v1beta1
kind: Ingress
metadata:
name: traefik-web-ui
namespace: cloud
spec:
rules:

  • host: tutum-hello-world.local
    http:
    paths:
    • backend:
      serviceName: service-tutum-hello-world
      servicePort: 80

</pre>

|

3.5、负载均衡方案

图片.png

最终选用的是Traefik。

3.5.1、traefik 七层网络负载

图片.png

3.5.1、负载均衡高可用

可指定多个k8s node节点作为负载均衡节点,以DaemonSet方式部署。通过keepalived做热备对外提供VIP。

图片.png

3.6、容器服务日志方案

图片.png

目前灵雀云已做好的基础镜像采用的是第一种方式, 所以保持一致。

3.7、容器网络互通方案:

当前k8s部署采用默认的flannel网络方案,解决了跨主机间容器直接使用自身 IP 进行通信的问题,会对node节点会分配为每一个node节点分配一个唯一的ip/255.255.0.0 网段。(ip网段可以指定)

图片.png

3.7.1、网络互通测试

图片.png

测试结果

图片.png

3.7.2、容器网络互通方案

上述k8s集群外的节点无法访问内部容器网络。

导致的问题:dobbox提供接口的服务部署在容器,dobbox消费接口的服务部署在k8s集群外则调用接口失败。

我们使用 Flannel 作为 k8s 网络组件,Flannel 的特点是每个宿主机上的容器网段是固定的,部署完不会再变,那我们只需要在宿主机的网关设备上添加静态路由即可。

图片.png

(由于是同一个网关,且我没有网关权限,所以测试时我直接在(k8s集群外的服务器)10.66.221.138上添加路由进行测试)。

在10.66.221.138服务器执行以下命令:

ip route add 10.244.1.0/24 via 10.66.221.92
ip route add 10.244.2.0/24 via 10.66.221.93

执行route -n查看:

图片.png

k8s容器我已经提前部署了tutum-hello-world.local,他有3个容器实例。如图:

图片.png

执行以下命令,成功访问k8s集群中tutum-hello-world容器提供的80端口服务。(Node1的容器,Node2的容器)

curl 10.244.1.93:80

curl 10.244.2.5:80

图片.png

3.7.1、执行互通方案后测试互通性

图片.png

4、demo示例服务测试

4.1、测试方案

开发2个测试的应用, 如下表。(以3.0常用应用场景选择测试功能范围)

图片.png

4.2、demo服务测试结果

图片.png

5、性能测试

容器化技术会带来一定网络性能损耗,建议由测试以实际本地化服务器资源进行性能测试。(研发自测的话推荐Locust测试)

6、监控

采用dashboard管理平台监控,能看到节点、Pod的监控(Pod的CPU、内存、网络、磁盘等监控)、kubernetes的各个组件状态。

其他开源监控(prometheus等)如有需求,可单独调研。

7、结论

k8s方式容器化部署测试已通过,能满足3.0本地化服务应用场景,以及各种自动扩容,资源管理,日志收集,复杂网络互通等多种实际场景。

对于网络网段需要规划,避免网段重复。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,496评论 6 501
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,407评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,632评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,180评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,198评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,165评论 1 299
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,052评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,910评论 0 274
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,324评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,542评论 2 332
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,711评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,424评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,017评论 3 326
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,668评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,823评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,722评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,611评论 2 353

推荐阅读更多精彩内容