日志多租户架构下的Loki方案

当我们在看Loki的架构文档时,社区都会宣称Loki是一个可以支持多租户模式下运行的日志系统,但我们再想进一步了解时,它却含蓄的表示Loki开启多租户只需要满足两个条件:

  • 配置文件中添加 auth_enabled: true
  • 请求头内带上租户信息X-Scope-OrgID

这一切似乎都在告诉你,"快来用我吧,这很简单",事实上当我们真的要在kubernetes中构建一个多租户的日志系统时,我们需要考虑的远不止于此。

通常当我们在面对一个多租户的日志系统架构时,出于对日志存储的考虑,我们一般会有两种模式来影响系统的架构。

1. 日志集中存储(后文以方案A代称)

和Loki原生一样,在日志进入到集群内,经过一系列校验和索引后集中的将日志统一写入后端存储上。

image.png

2. 日志分区存储(后文以方案B代称)

反中心存储架构,每个租户或项目都可以拥有独立的日志服务和存储区块来保存日志。

image.png

从直觉上来看,日志分区带来的整体结构会更为复杂,除了需要自己开发控制器来管理loki服务的生命周期外,它还需要为网关提供正确的路由策略。不过,不管多租户的系统选择何种方案,在本文我们也需从日志的整个流程来阐述不同方案的实现。

第一关:Loki划分

Loki是最终承载日志存储和查询的服务,在多租户的模式下,不管是大集群还是小服务,Loki本身也存在一些配置空间需要架构者去适配。其中特别是在面对大集群场景下,保证每个租户的日志写入和查询所占资源的合理分配调度就显得尤为重要。

在原生配置中,大部分关于租户的调整可以在下面两个配置区块中完成:

  • query_frontend_config
  • limits_config

query_frontend_config

query_frontend是Loki分布式集群模式下的日子查询最前端,它承担着用户日志查询请求的分解和聚合工作。那么显然,query_frontend对于请求的处理资源应避免被单个用户过分抢占。

每个frontend处理的租户

[max_outstanding_per_tenant: <int> | default = 100]

limits_config

limits_config基本控制了Loki全局的一些流控参数和局部的租户资源分配,这里面可以通过Loki的-runtime-config启动参数来让服务动态定期的加载租户限制。这部分可以通过runtime_config.go中的runtimeConfigValues结构体内看到

type runtimeConfigValues struct {
    TenantLimits map[string]*validation.Limits `yaml:"overrides"`

    Multi kv.MultiRuntimeConfig `yaml:"multi_kv_config"`
}

可以看到对于TenantLimits内的限制配置是直接继承limits_config的,那么这部分的结构应该就是下面这样:

overrides:
  tenantA:
    ingestion_rate_mb: 10
    max_streams_per_user: 100000
    max_chunks_per_query: 100000
  tenantB:
    max_streams_per_user: 1000000
    max_chunks_per_query: 1000000

当我们在选择采用方案A的日子架构时,关于租户部分的限制逻辑就应该要根据租户内的日志规模灵活的配置。如果选择方案B,由于每个租户占有完整的Loki资源,所以这部分逻辑就直接由原生的limits_config控制。

第二关:日志客户端

在Kubernetes环境下,最重要是让日志客户端知道被采集的容器所属的租户信息。这部分实现可以是通过日志Operator或者是解析kubernetes元数据来实现。虽然这两个实现方式不同,不过最终目的都是让客户端在采集日之后,在日志流的请求上添加租户信息头。下面我分别以logging-operator和fluentbit/fluentd这两种实现方式来描述他们的实现逻辑

Logging Operator

Logging Operator是BanzaiCloud下开源的一个云原生场景下的日志采集方案。它可以通过创建NameSpace级别的CRD资源flow和output来控制日志的解析和输出。

image.png

通过Operator的方式可以精细的控制租户内的日志需要被采集的容器,以及控制它们的流向。以输出到loki举例,通常在只需在租户的命名空间内创建如下资源就能满足需求。

  • output.yaml,在创建资源时带入租户相关的信息
apiVersion: logging.banzaicloud.io/v1beta1
kind: Output
metadata:
 name: loki-output
 namespace: <tenantA-namespace>
spec:
  loki:
    url: http://loki:3100
    username: <tenantA>
    password: <tenantA>
    tenant: <tenantA>
...
  • flow.yaml,在创建资源时关联租户需要被采集日志的容器,以及指定输出
apiVersion: logging.banzaicloud.io/v1beta1
kind: Flow
  metadata:
    name: flow
    namespace:  <tenantA-namespace>
  spec:
    localOutputRefs:
    - loki-output
    match:
      - select:
          labels:
            app: nginx
    filters:
      - parser:
          remove_key_name_field: true
          reserve_data: true
          key_name: "log"

可以看到通过operator来管理多租户的日志是一个非常简单且优雅的方式,同时通过CRD的方式创建资源对开发者集成到项目也十分友好。这也是我比较推荐的日志客户端方案。

FluentBit/FluentD

FluentBit和FluentD的Loki插件同样支持对多租户的配置。对于它们而言最重要的是让其感知到日志的租户信息。与Operator在CRD中直接声明租户信息不同,直接采用客户端方案就需要通过Kubernetes Metadata的方式来主动抓取租户信息。对租户信息的定义,我们会声明在资源的label中。不过对于不同的客户端,label定义的路径还是比较有讲究的。它们总体处理流程如下:

image.png
  • FluentD

fluentd的kubernetes-metadata-filter可以抓取到namespaces_label,所以我比较推荐将租户信息定义在命名空间内。

apiVersion: v1
kind: Namespace
metadata:
  labels:
    tenant: <tenantA>
  name: <taenant-namespace>

这样在就可以loki的插件中直接提取namespace中的租户标签内容,实现逻辑如下

<match loki.**>
  @type loki
  @id loki.output
  url "http://loki:3100"
  # 直接提取命名空间内的租户信息
  tenant ${$.kubernetes.namespace_labels.tenant}
  username <username>
  password <password>
  <label>
    tenant ${$.kubernetes.namespace_labels.tenant}
  </label>
  • FluentBit

fluentbit的metadata是从pod中抓取,那么我们就需要将租户信息定义在workload的template.metadata.labels当中,如下:

apiVersion: apps/v1
kind: Deployment
metadata:
 labels:
   app:  nginx
spec:
 template:
   metadata:
     labels:
       app: nginx
       tenant: <tanant-A>

之后就需要利用rewrite_tag将容器的租户信息提取出来进行日志管道切分。并在output阶段针对不同日志管道进行输出。它的实现逻辑如下:

[FILTER]
   Name           kubernetes
   Match          kube.*
   Kube_URL       https://kubernetes.default.svc:443
   Merge_Log      On
[FILTER]
   Name           rewrite_tag
   Match          kube.*
   #提取pod中的租户信息,并进行日志管道切分
   Rule           $kubernetes['labels']['tenant'] ^(.*)$ tenant.$kubernetes['labels']['tenant'].$TAG false
   Emitter_Name   re_emitted
[Output]
   Name           grafana-loki
   Match          tenant.tenantA.*
   Url            http://loki:3100/api/prom/push
   TenantID       "tenantA"
[Output]
   Name           grafana-loki
   Match          tenant.tenantB.*
   Url            http://loki:3100/api/prom/push
   TenantID       "tenantB"

可以看到不管是用FluentBit还是Fluentd的方式进行多租户的配置,它们不但对标签有一定的要求,对日志的输出路径配置也不是非常灵活。所以fluentd它比较做适合方案A的日志客户端,而fluentbit比较适合做方案B的日志客户端

第三层:日志网关

日志网关准确的说是Loki服务的网关,对于方案A来说,一个大Loki集群前面的网关,只需要简单满足能够横向扩展即可,租户的头信息直接传递给后方的Loki服务处理。这类方案相对简单,并无特别说明。只需注意针对查询接口的配置需调试优化,例如网关服务与upstream之间的连接超时时间网关服务response数据包大小等。

本文想说明的日志网关是针对方案B场景下,解决针对不同租户的日志路由问题。从上文可以看到,在方案B中,我们引入了一个控制器来解决租户Loki实例的管理问题。但是这样就带来一个新的问题需要解决,那就是Loki的服务需要注册到网关,并实现路由规则的生成。这部分可以由集群的控制器CRD资源作为网关的upsteam源配置。控制器的逻辑如下:

image.png

网关服务在处理租户头信息时,路由部分的逻辑为判断Header中X-Scope-OrgID带租户信息的日志请求,并将其转发到对应的Loki服务。我们以nginx作为网关举个例,它的核心逻辑如下:

#upstream内地址由sidecar从CRD中获取loki实例后渲染生成

upstream tenantA {
    server x.x.x.x:3100;
}
upstream tenantB {
    server y.y.y.y:3100;
}
server {
    location / {
        set tenant $http_x_scope_orgid;
        proxy_pass http://$tenant;
        include proxy_params;

总结

本文介绍了基于Loki在多租户模式下的两种日志架构,分别为日志集中存储日志分区存储。他们分别具备如下的特点:

方案 Loki架构 客户端架构 网关架构 开发难度 运维难度 自动化程度
日志集中存储 集群、复杂 fluentd / fluentbit 简单 简单 中等
日志分区存储 简单 Logging Opeator 较复杂 较复杂(控制器部分) 中等

对于团队内具备kubernetes operator相关开发经验的同学可以采用日志分区存储方案,如果团队内偏向运维方向,可以选择日志集中存储方案。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,590评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 86,808评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,151评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,779评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,773评论 5 367
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,656评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,022评论 3 398
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,678评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 41,038评论 1 299
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,659评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,756评论 1 330
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,411评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,005评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,973评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,203评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,053评论 2 350
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,495评论 2 343

推荐阅读更多精彩内容