其他分享
首页 > 其他分享> > 大数据学习(31)—— flink流处理

大数据学习(31)—— flink流处理

作者:互联网

这一篇很难懂,我也不懂。

有状态流处理

虽然数据流中的许多操作一次只查看一个单独的事件(例如事件解析器),但有些操作会记住多个事件的信息(例如窗口操作符)。这些操作称为有状态的。

有状态操作的一些示例:

键控状态

键控状态保持在可以被认为是嵌入式键/值存储的东西中。状态与有状态操作符读取的流一起被严格地划分和分布。因此,只能在键控流上访问键/值状态,即在键控/分区数据交换之后,并且仅限于与当前事件的键相关联的值。对齐流和状态的键可确保所有状态更新都是本地操作,保证一致性而没有事务开销。这种对齐还允许Flink重新分配状态并透明地调整流分区。我想说,这个介绍就不能通俗一点,这说的啥玩意儿。

Keyed State 被进一步组织成所谓的Key Groups。Key Groups 是 Fl​​ink 可以重新分配 Keyed State 的原子单元;有与定义的最大并行度一样多的密钥组。在执行期间,键控运算符的每个并行实例都使用一个或多个键组的键。 

状态持久化

Flink 使用流重放和检查点的组合来实现容错,通俗地说,就是快照和redo日志。检查点标记每个输入流中的特定点以及每个操作符的相应状态。数据流可以从检查点恢复,同时通过恢复操作符的状态,从检查点重放记录来保持一致性(恰好一次处理语义)。

检查点间隔是一种权衡执行期间容错开销与恢复时间(需要重放的记录数)的方法。

容错机制不断地绘制分布式流数据流的快照。对于小状态的流式应用,这些快照是非常轻量级的,可以频繁绘制,对性能没有太大影响。流应用程序的状态存储在可配置的位置,通常在分布式文件系统中。

如果程序出现故障(由于机器、网络或软件故障),Flink 会停止分布式数据流。然后系统重新启动操作并将它们重置为最新的成功检查点。输入流被重置到状态快照的点。

检查点

Flink 容错机制的核心部分是绘制分布式数据流和算子状态的一致快照。这些快照充当一致的检查点,系统可以在出现故障时回退到这些检查点。

请记住,与检查点有关的一切都可以异步完成。检查点屏障不会在锁定步骤中移动,操作可以异步快照它们的状态。

屏障

Flink 分布式快照的一个核心元素是流屏障。这些屏障被注入到数据流中,并作为数据流的一部分与记录一起流动。屏障永远不会超过记录,它们严格按照顺序流动。屏障将数据流中的记录分为进入当前快照的记录集和进入下一个快照的记录。每个屏障都带有它推送到它前面的记录的快照的 ID。屏障不会中断数据流的流动,因此非常轻便。来自不同快照的多个屏障可以同时在流中,这意味着各种快照可能同时发生。

流屏障被注入到源的并行数据流中。快照n的屏障被注入的点(我们称之为 Sn)是源中快照覆盖数据的位置。例如,在 Apache Kafka 中,此位置将是分区中最后一条记录的偏移量。这个位置Sn 报告给检查点协调器(Flink 的 JobManager)。

然后屏障向下游流动。当中间操作符从其所有输入流中接收到快照n的屏障时,它会将快照n的屏障发送到其所有输出流中。一旦接收器操作符(流 DAG 的末尾)从其所有输入流中接收到屏障n,它就会向检查点协调器确认快照n。在所有接收器确认快照后,它被认为已完成。

一旦快照n完成,作业将永远不会再向源询问Sn之前的记录。

 

接收多个输入流的操作符需要在快照屏障上对齐输入流。上图说明了这一点:

请注意,所有具有多个输入的操作符以及在使用多个上游子任务的输出流时经过 shuffle 后的操作符都需要对齐。

快照状态

当操作符包含任何形式的state 时,这个 state 也必须是快照的一部分。

在收到来自输入流的所有快照屏障时,以及在将屏障发送到其输出流之前的时间点对他们的状态进行快照。那时,所有从障碍之前记录的状态更新都已经完成,并且没有依赖于应用障碍之后的记录的更新。因为快照的状态可能很大,所以它存储在一个可配置的状态后端中。默认情况下,这是 JobManager 的内存,但对于生产用途,应配置分布式可靠存储(例如 HDFS)。存储状态后,操作员确认检查点,将快照屏障发送到输出流中,然后继续。

生成的快照现在包含:

 

恢复

这种机制下的恢复很简单:发生故障时,Flink 选择最新完成的检查点k。然后系统重新部署整个分布式数据流,并为每个操作提供作为检查点k一部分的快照状态。源被设置为从位置Sk开始读取流。例如在 Apache Kafka 中,这意味着告诉消费者从偏移量Sk开始获取。

如果状态是增量快照,则从最新完整快照的状态开始,然后将一系列增量快照更新应用于该状态。

未对齐的检查点

检查点也可以不对齐地执行。基本思想是,只要动态数据成为操作状态的一部分,检查点就可以超越所有动态数据。

 

该图描绘了操作如何处理未对齐的检查点屏障:

因此,操作只是简单地停止处理输入以标记缓冲区,转发屏障,并创建另一个状态的快照。

状态后端

存储键/值索引的数据结构取决于所选的状态后端。一个状态后端将数据存储在内存中的哈希映射中,另一个状态后端使用RocksDB作为键/值存储。除了定义保存状态的数据结构之外,状态后端还实现了获取键/值状态的时间点快照并将该快照作为检查点的一部分存储。可以在不更改应用程序逻辑的情况下配置状态后端。

保存点

所有使用检查点的程序都可以从保存点恢复执行。保存点是手动触发的检查点,它获取程序的快照并将其写出到状态后端,它们依赖于常规的检查点机制。

保存点类似于检查点,不同之处在于它们由用户触发并且不会在新的检查点完成时自动过期。

恰好一次 vs 至少一次

对齐步骤可能会给流媒体程序增加延迟。通常,这种额外的延迟大约是几毫秒,但我们已经看到一些显著增加的异常延迟情况。对于要求所有记录始终保持超低延迟(几毫秒)的应用程序,Flink 有一个开关可以在检查点期间跳过流对齐。一旦操作从每个输入中看到检查点屏障,检查点快照仍然会被保存。

当跳过对齐时,操作继续处理所有输入,即使在检查点n 的一些检查点屏障到达之后也是如此。在还原时,将在检查点n之后作为数据的一部分重放。

及时流处理

官网把Timely stream翻译成及时流,感觉怪怪的。

及时流处理是有状态流处理的扩展,其中时间在计算中起一定作用。除其他外,当您进行时间序列分析、基于特定时间段(通常称为窗口)进行聚合时,或者当您进行事件发生时间很重要的事件处理时,就会出现这种情况。

在下面的部分中,我们将重点介绍在使用及时的 Flink 应用程序时应该考虑的一些主题。

事件时间和处理时间

在流媒体程序中提及时间时(例如定义窗口),可以指代不同的时间概念:

事件时间和处理时间

事件时间和水印

支持事件时间的流处理器需要一种方法来衡量事件时间的进度。例如,当事件时间超过一小时结束时,需要通知构建每小时窗口的操作,以便可以关闭正在进行的窗口。

事件时间可以独立于处理时间(由挂钟测量)进行。例如,在一个程序中,操作的当前事件时间可能稍微落后于处理时间(考虑到接收事件的延迟),而两者以相同的速度进行。另一方面,另一个流程序可能会在几周的事件时间中进行,只需几秒钟的处理,通过快速转发一些已经缓冲在 Kafka 主题(或另一个消息队列)中的历史数据。

Flink 中衡量事件时间的机制是水印。水印作为数据流的一部分并带有时间戳t。水印(t)表示数据流中在时刻t到达的事件,这意味着该流中不存在时间戳 t'<=t的元素。

下图展示了带有(逻辑)时间戳和内联流水印的事件流。在这个例子中,事件是有序的,这意味着水印只是流中的周期性标记。

 

水印对于乱序流至关重要,如下图所示,其中事件不是按时间戳排序的。一般来说,水印是一种声明,即到流中的那个点,直到某个时间戳的所有事件都应该已经到达。一旦水印到达,操作就可以将其内部事件时钟提前到水印的值。

迟到

某些元素可能会违反水印条件,这意味着即使在Watermark(t)发生之后,也会出现更多时间戳为t' <= t 的元素。事实上,在许多现实世界的设置中,某些元素可以任意延迟,因此无法指定某个事件时间戳的所有元素将发生的时间。此外,即使可以限制延迟,将水印延迟太多通常也是不可取的。

出于这个原因,流媒体程序可能会明确地期待一些后期元素。迟到的元素是在系统的事件时间时钟(由水印发出信号)已经超过迟到元素的时间戳时间之后到达的元素。

开窗

聚合事件(例如,计数、总和)在流上的工作方式与在批处理中的工作方式不同。例如,不可能对流中的所有元素进行计数,因为流通常是无限的(无界)。相反,流上的聚合(计数、总和等)由窗口限定范围,例如 “过去 5 分钟内的计数”或“最后 100 个元素的总和”。

窗口可以是时间驱动的(例如:每 30 秒)或数据驱动的 (例如:每 100 个元素)。通常区分不同类型的窗口,例如滚动窗口(无重叠)、滑动窗口(有重叠)和会话窗口(由不活动的间隙打断)。

标签:状态,快照,31,flink,学习,屏障,时间,检查点,事件
来源: https://www.cnblogs.com/burningblade/p/15592595.html