Uk8s 容器集群部署ELK日志系统

Uk8s 容器集群日志系统

环境信息

  1. Kubernetes:1.18
  2. NFS StorageClass:UFS
  3. Helm:v3.5.2

准备工作

  1. 如果集群内未创建StorageClass 配置,首先在ucloud 控制台创建UFS存储,选择 k8s集群所在的vpc 子网 创建UFS挂载点,
    1. StorageClass部署参考 https://github.com/panhaitao/k8s-app/tree/main/deploy-for-k8s/StorageClass-UFS
    2. 创建修改 deployment.yaml 配置中 挂载点ufs_server_ip 顺序执行如下命令:
git clone https://github.com/panhaitao/k8s-app.git
cd k8s-app/deploy-for-k8s/StorageClass-UFS/
kubectl  apply -f deployment.yaml
kubectl  apply -f rbac.yaml
kubectl  apply -f class.yaml

  1. 如果k8s集群内没有 helm,需要安装helm,推荐使用v3版本,登录一台master,执行如下命令:
wget https://mirrors.huaweicloud.com/helm/v3.5.2/helm-v3.5.2-linux-amd64.tar.gz
tar -xf helm-v3.5.2-linux-amd64.tar.gz
mv linux-amd64/helm /usr/bin/

日志系统部署

组件清单

  1. Filebeat: 7.4.1
  2. Logstash: 7.9.3
  3. Kafka:2.0.1
  4. Zookeeper: 3.5.5
  5. UES: 7.4.2

部署 filebeat

  1. 创建命名空间: kubectl create ns logs
  2. 获取 https://helm.elastic.co/helm/filebeat/filebeat-7.4.1.tgz
  3. 创建 filebeat-values.yaml
nameOverride: "filebeat"
fullnameOverride: "elk-filebeat"
image: "uhub.service.ucloud.cn/ucloud_pts/filebeat"
imageTag: "7.4.1"
tolerations:
- effect: NoSchedule
  key: node-role.kubernetes.io/master
  operator: Exists

helm install filebeat-7.4.1.tgz --generate-name --namespace logs -f filebeat-values.yaml

部署logstash

  1. 获取 https://helm.elastic.co/helm/logstash/logstash-7.9.3.tgz
  2. 创建 logstash-values.yaml
nameOverride: "logstash"
fullnameOverride: "elk-logstash"
image: "uhub.service.ucloud.cn/ucloud_pts/logstash"
imageTag: "7.9.3"

service:
  type: ClusterIP
  ports:
    - name: beats
      port: 5044
      protocol: TCP
      targetPort: 5044

helm install logstash-7.9.3.tgz --generate-name --namespace logs -f logstash-values.yaml

部署kafka

  1. 获取kafka chart包 , wget http://mirror.azure.cn/kubernetes/charts-incubator/kafka-0.21.2.tgz
  2. 创建kakfa-values.yaml文件,下面是具体的修改点:
    1. persistence size 调整为合适的大小
    2. persistence storageClass 设置为 ufs-nfsv4-storage

完整示例如下:

nameOverride: "mq"
fullnameOverride: "kafka"
replicas: 3
image: uhub.service.ucloud.cn/ucloud_pts/cp-kafka
imageTag: 5.0.1
tolerations:
- key: node-role.kubernetes.io/master
  operator: Exists
  effect: NoSchedule
- key: node-role.kubernetes.io/master
  operator: Exists
  effect: PreferNoSchedule
persistence:
  storageClass: ssd-csi-udisk
  size: 100Gi
zookeeper:
  nameOverride: "zk"
  fullnameOverride: "zookeeper"
  persistence:
    enabled: true
    storageClass: ufs-nfsv4-storage
    size: 1Gi
  replicaCount: 3
  image:
    repository: uhub.service.ucloud.cn/ucloud_pts/zookeeper
    tag: 3.5.5
  tolerations:
  - key: node-role.kubernetes.io/master
    operator: Exists
    effect: NoSchedule
  - key: node-role.kubernetes.io/master
    operator: Exists
    effect: PreferNoSchedule

  1. 设置完成,开始部署,执行命令:
kubectl create namespace kafka
helm install /root/kafka-0.21.2.tgz --generate-name --namespace kafka -f kafka-values.yaml

Kafka运维

管理Topic

请 zookeeper 替换为集群中实际的 zk svc 名字,或 zookeeper svc ip

  1. 创建topic:
/usr/bin/kafka-topics --create --zookeeper zookeeper:2181 --replication-factor 1 --partitions 1 --topic test001

  1. 查看当前topic:
/usr/bin/kafka-topics --list --zookeeper zookeeper:2181

  1. 查看名为test001的topic:
/usr/bin/kafka-topics --describe --zookeeper zookeeper:32181 --topic test001

测试验证

Kafka 请替换为集群中实际的 kafka svc 名称,或 kafka svc ip

  1. 进入创建消息的交互模式:
/usr/bin/kafka-console-producer --broker-list kafka:9092 --topic test001

  1. 再打开一个窗口,执行命令消费消息:
/usr/bin/kafka-console-consumer --bootstrap-server kafka:9092  --topic test001 --from-beginning

  1. 再打开一个窗口,执行命令查看消费者group:
/usr/bin/kafka-consumer-groups --bootstrap-server kafka:9092 --list

命令回输出类似的输出:console-consumer-71062

  1. 执行命令查看groupid等于console-consumer-71062 的消费情况:
/usr/bin/kafka-consumer-groups --group console-consumer-71062 --describe --bootstrap-server kafka:9092

日志系统配置

配置 filebeat

  1. 添加 hostPath /data/docker/containers/ kubectl get ds filebeat-xxxxxx -n logs
          - mountPath: /data/docker/containers/
            name: datadockercontainers
            readOnly: true
  - hostPath:
      path: /data/docker/containers/
      type: ""
    name: datadockercontainers

kubectl get cm filebeat-7-1614073436-filebeat-config -n logs 添加output.kafka 配置

output.kafka:
  enabled: true
  hosts: ['kafka:9092']
  topic: "test001"

配置 logstash

  1. 创建logstash pipeline configmap
cat > logstash.conf <<EOF
input {
  kafka {
    bootstrap_servers => 'kafka:9092'
    topics => test001
    codec => json {
            charset => "UTF-8"
        }
  }
}
filter {
    # 将message转为json格式
    if [type] == "log" {
        json {
            source => "message"
            target => "message"
        }
    }
}
output {
  elasticsearch {
    hosts => ["http://elasticsearch_ip:9200"]
    index => "k8s_log-20210223"
  }
}
EOF

kubectl delete cm logstash-pipeline-config -n logs
kubectl create configmap logstash-pipeline-config --from-file=logstash.conf --namespace logs

  1. 创建logstash pipeline configmap
cat > logstash.yml <<EOF
http.host: "0.0.0.0"
xpack.monitoring.elasticsearch.hosts: [ "http://10.10.46.42:9200" ]
EOF
kubectl delete cm logstash-config -n logs
kubectl create configmap logstash-config --from-file=logstash.yml --namespace logs

  1. 添加logstash configmap卷挂载配置: kubectl edit statefulset.apps/elk-logstash -n logs
    volumeMounts:
    - mountPath: /usr/share/logstash/pipeline/logstash.conf
      name: logstash-pipeline-volume
      readOnly: true
      subPath: logstash.conf
    - mountPath: /usr/share/logstash/config/logstash.yml
      name: logstash-volume
      readOnly: true
      subPath: logstash.yml

      volumes:
      - configMap:
          defaultMode: 420
          name: logstash-pipeline-config
        name: logstash-pipeline-volume
      - configMap:
          defaultMode: 420
          name: logstash-config
        name: logstash-volume

验证日志服务

image
image
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 219,589评论 6 508
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,615评论 3 396
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 165,933评论 0 356
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,976评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,999评论 6 393
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,775评论 1 307
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,474评论 3 420
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,359评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,854评论 1 317
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,007评论 3 338
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,146评论 1 351
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,826评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,484评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,029评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,153评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,420评论 3 373
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,107评论 2 356

推荐阅读更多精彩内容