Apache Flink是一个框架和分布式处理引擎,用于对无界和有界数据流进行有状态计算。Flink被设计在所有常见的集群环境中运行,以内存执行速度和任意规模来执行计算。
本文对 flink的运行时组件、flink的核心概念、任务提交流程 作简单介绍。
1)flink的运行时组件
如上图,运行时组件 主要有 客户端、JobManager、TaskManager、ResourceManager、Dispatcher 等。
1.1)客户端
严格而言, 客户端 不是 运行和程序执行的一部分, 而是用来 准备和发送dataflow(逻辑数据流图) 到 JobManager;发送后,客户端可以断开与JobManager的连接(即 detached mode),也可以继续保持与JobManager的连接(即 attached mode)。
客户端运行 触发程序执行的 那部分 java或者scala代码,我们可以在命令行运行:bin/flink run ...
1.2)JobManager
JobManager是 控制 一个应用程序如何执行 的 主进程,即 不同的应用程序 会被 不同的JobManager所控制执行,一个 应用程序 被 一个 JM 控制执行。
JM会先接收到要执行的应用程序,这个应用程序包括:作业图(JobGraph)、逻辑数据流图(logical dataflow graph)和 打包后生成的、含有所有的类、库和其它资源的JAR包。
JM会把 在client端生成的JobGraph,转换成一张 物理层面的 数据流图,这个图被叫做“执行图”(ExecutionGraph),他包含了所有可以并发执行的任务。
JobManager会向资源管理器(ResourceManager)请求执行任务必要的资源——即任务管理器(TaskManager)上的插槽(slot);一旦JM获取到了足够的资源,就会将执行图分发到 真正运行 执行图逻辑 的TaskManager上。
而在运行过程中,JobManager会负责所有需要中央协调的操作,比如说检查点(checkpoints)的协调。
一个JM进程包含3个不同的组件——分别系 Dispatcher、JobMaster、TaskManager。
1.2.1)ResourceManager(负责申请资源的管家)
RM负责资源的管理,在整个 Flink 集群中只有一个 ResourceManager。注意这个ResourceManager不是Yarn中的ResourceManager,而是Flink中内置的, 只是恰好重名而已.
RM主要负责管理任务管理器(TaskManager)的插槽(slot),TM插槽是Flink中 资源处理单元。
当JobManager申请插槽资源时,ResourceManager会将有空闲插槽TaskManager分配给JobManager;如果ResourceManager发现,没有足够的插槽来满足JobManager的请求,它(RM)还可以向资源提供平台(yarn或k8s)发起会话,让平台提供 启动TaskManager进程的容器。
另外,ResourceManager还负责终止空闲的TaskManager,释放计算资源。
1.2.2)Dispatcher(“科代表”)
Dispatcher负责接收用户提供的作业,并负责为这个新提交的作业启动一个新的JobManager组件(当一个应用被提交执行时,分发器就会启动,并将应用移交给JM,就像“科代表收作业交给老师批改”)。
Dispatcher也会启动一个Web UI,用来方便地展示和监控作业执行的信息。Dispatcher在架构中可能并不是必需的,这取决于应用提交运行的方式。
1.2.3)JobMaster(转化者——把 JobGraph作业图 转为 ExecutionGraph执行图)
JobMaster负责管理单个JobGraph的执行。
多个Job可以同时运行在一个Flink集群中, 每个Job都有一个自己的JobMaster。
对于JobMaster而言,Flink的Dispatcher通过JobManagerRunner类的对象,将JobGraph发给JobMaster,JobMaster随后将JobGraph转换为ExecutionGraph,并分发给TaskManager执行。
另外JobMaster会 监听并处理 分配给TM的任务之结果及状态。
1.3)TaskManager
TM是Flink中的工作进程。通常在Flink中会有多个TaskManager(进程)在运行,每一个TaskManager都包含了一定数量的插槽(slots)。插槽的数量限制了TaskManager能够执行的任务数量。
TM启动之后,TaskManager会向资源管理器RM 注册它的插槽(slot);收到资源管理器RM的(要用slot的)指令后,TaskManager就会将一个或者多个插槽提供给JobManager调用;此时JobManager就可以向插槽分配任务(tasks)来执行了。
在任务的执行过程中,一个TaskManager可以跟其它运行同一应用程序的TaskManager交换数据。
2)核心概念
2.1)TaskManager与Slots
Flink中每一个worker(TaskManager)都是一个JVM进程,它可能会在独立的线程上执行一个Task。如何控制一个worker能接收的task数?——worker(TM)通过Task Slot来进行控制(一个worker至少有一个Task Slot)(每个task slot代表了 TaskManager 的一个固定大小即fixed size的资源子集)。
若将Slot类比为Spark的Core,有一定道理;但实际上,当Spark申请资源后,这个Core执行任务时,有可能是空闲的,但此时Spark并不能将这个空闲下来的Core共享给其他Job使用,所以spark的Core是在Job内部共享使用的。
在Flink的Yarn Session-Cluster模式下,其实是可以并行执行多个Job的,若此时申请两个Slot,而执行Job时,只用到了一个,剩下的一个怎么办?——可以将这个Slot给并行的其他Job用!这就提升了资源(slot)的利用效率,所以Flink中的Slot和Spark中的Core,还是有很大区别的。
每个task slot表示TaskManager拥有资源的一个固定大小的子集。假如一个TaskManager有三个slot,那么TM会将其管理的内存分成三份,分给各个slot。资源slot化意味着一个task将不需要跟来自其他job的task竞争被管理的内存——因为task将拥有一定数量的内存储备。
需要注意的是,这里不会涉及到CPU的隔离(因为CPU是被操作系统管理的),slot目前仅仅用来隔离task的受管理的内存。
task slot 是为了避免 内存竞争 而引入的,而taskslot的作用就是隔离内存,且各个task slot之间是共享cpu的,这样在同一个jvm上的task共享tcp连接(此jvm进程整体 作为tcp连接的一端,则jvm内的slot们都能访问此tcp连接),在一定程度上减少了网络传输、提升了性能。
2.2)Parallelism(并行度)
一个特定算子的 子任务(subtask)的个数 被称之为这个算子的并行度(parallelism),一般情况下,一个流程序的并行度,可以认为就是其 所有算子中,最大的并行度 。一个程序中,不同的算子可能具有不同的并行度。
Stream(流)在算子之间传输数据的形式可以是one-to-one(forwarding)模式 也可以是 redistributing模式,具体是哪一种形式,取决于算子的种类。
2.2.1)One-to-one
stream(如在source和map operator之间)维护着分区以及元素的顺序,这意味着 flatmap算子的子任务 看到的元素的个数以及顺序 和source算子的子任务 所产生的元素的个数、顺序 相同,map、fliter、flatMap等算子都是one-to-one的对应关系。
这类似于spark中的窄依赖。
2.2.2)Redistributing
stream(如map()和keyBy/window之间 又或者 keyBy/window和sink之间)的分区会发生改变。每一个算子的子任务 依据 所选择的transformation 发送数据到不同的目标任务。例如,keyBy()基于hashCode进行重分区、broadcast和rebalance会随机重新分区,这些算子都会引起redistribute过程,而redistribute过程就类似于Spark中的shuffle过程。
这类似于spark中的宽依赖。
2.3)Task与SubTask
一个算子就是一个Task;一个算子的并行度是几,这个Task就有几个SubTask。
2.4)Operator Chains(任务链)
如上图,对 在相同并行度下进行的one to one操作 的算子,Flink将 这些算子 链接在一起形成一个“大”task,原来的算子成为它里面的一部分。 每个“大”task被一个线程执行。
将算子链接成“大”task是非常有效的优化:它能减少线程之间的切换和基于缓存区的数据交换,在减少时延的同时提升吞吐量。链接的行为可以在编程API中进行指定。
2.5)ExecutionGraph(执行图)
由Flink程序直接映射成的数据流图是StreamGraph,也被称为逻辑流图,因为它表示的是计算逻辑的高级视图。
为了执行一个流处理程序,Flink需要将逻辑流图转换为物理数据流图(也叫执行图),详细说明程序的执行方式。
Flink 中的执行图可以分成四层:StreamGraph -> JobGraph -> ExecutionGraph -> Physical Graph*。
StreamGraph
是根据用户通过 Stream API 编写的代码生成的最初的图。它用来表示程序的拓扑结构。JobGraph
JobGraph是在StreamGraph基础上,经过优化后生成了的,JobGraph 是客户端提交给 JobManager 的数据结构。
主要的优化为:将多个符合条件的节点 chain 在一起作为一个节点,这样可以减少数据在节点之间流动所需要的序列化/反序列化/传输消耗。ExecutionGraph
JobManager 根据 JobGraph 生成ExecutionGraph。ExecutionGraph是JobGraph的并行化版本,是调度层最核心的数据结构。Physical Graph
JobManager 根据 ExecutionGraph 对 Job 进行调度后,在各个TaskManager 上部署 Task 后形成的“图”,并不是一个具体的数据结构。
2.5.1)举例说明“四层执行图”
代码:
env.socketTextStream().flatMap(…).keyBy(0).sum(1).print();
逻辑参考以上代码,2个并发度(Source为1个并发度)的 SocketTextStreamWordCount(可理解为从socket无界流中不断读字符串) 的四层执行图的演变过程如下图:
3)任务提交流程
3.1)通用提交流程
3.2)Yarn的Per-Job部署模式下的 提交流程
Flink任务提交后,Client向HDFS上传Flink的Jar包和配置
向Yarn ResourceManager提交任务,ResourceManager分配Container资源
通知对应的NodeManager启动ApplicationMaster,ApplicationMaster启动后加载Flink的Jar包和配置构建环境,然后启动JobManager
ApplicationMaster向ResourceManager申请资源启动TaskManager
ResourceManager分配Container资源后,由ApplicationMaster通知资源所在节点的NodeManager启动TaskManager
NodeManager加载Flink的Jar包和配置构建环境并启动TaskManager
TaskManager启动后向JobManager发送心跳包,并等待JobManager向其分配任务。