flink入门与实战简介(Flink零基础学习教程)
flink入门与实战简介(Flink零基础学习教程)keyBy算子将DataStream转换成一个KeyedStream。KeyedStream是一种特殊的DataStream,事实上,KeyedStream继承了DataStream,DataStream的各元素随机分布在各Task Slot中,KeyedStream的各元素按照Key分组,分配到各Task Slot中。我们需要向keyBy算子传递一个参数,以告知Flink以什么字段作为Key进行分组。keyBy示意图DataStream和KeyedStream的转换关系本文涉及的完整的代码在github上:https://github.com/luweizheng/flink-tutorials绝大多数情况,我们要根据事件的某种属性或数据的某个字段进行分组,对一个分组内的数据进行处理。如下图所示,keyBy算子根据元素的形状对数据进行分组,相同形状的元素被分到了一起,可被后续算子统一处理
Flink的Transformation转换主要包括四种:单数据流基本转换、基于Key的分组转换、多数据流转换和数据重分布转换。本文主要介绍基于Key的分组转换,关于时间和窗口将在后续文章中介绍。读者可以使用Flink Scala Shell或者Intellij Idea来进行练习:
- Flink Scala Shell:使用交互式编程环境学习和调试Flink
- Flink 01 | 十分钟搭建第一个Flink应用和本地集群
- Flink算子使用方法及实例演示:map、filter和flatMap
Photo by Steve Halama on Unsplash
数据类型的转化对数据分组主要是为了进行后续的聚合操作,即对同组数据进行聚合分析。keyBy会将一个DataStream转化为一个KeyedStream,聚合操作会将KeyedStream转化为DataStream。如果聚合前每个元素数据类型是T,聚合后的数据类型仍为T。
DataStream和KeyedStream的转换关系
本文涉及的完整的代码在github上:https://github.com/luweizheng/flink-tutorials
keyBy绝大多数情况,我们要根据事件的某种属性或数据的某个字段进行分组,对一个分组内的数据进行处理。如下图所示,keyBy算子根据元素的形状对数据进行分组,相同形状的元素被分到了一起,可被后续算子统一处理。比如,多支股票数据流处理时,可以根据股票代号进行分组,然后对同一股票代号的数据统计其价格变动。又如,电商用户行为日志把所有用户的行为都记录了下来,如果要分析某一个用户行为,需要先按用户ID进行分组。
keyBy示意图
keyBy算子将DataStream转换成一个KeyedStream。KeyedStream是一种特殊的DataStream,事实上,KeyedStream继承了DataStream,DataStream的各元素随机分布在各Task Slot中,KeyedStream的各元素按照Key分组,分配到各Task Slot中。我们需要向keyBy算子传递一个参数,以告知Flink以什么字段作为Key进行分组。
我们可以使用数字位置来指定Key:
val dataStream: DataStream[(Int Double)] = senv.fromElements((1 1.0) (2 3.2) (1 5.5) (3 10.0) (3 12.5))
// 使用数字位置定义Key 按照第一个字段进行分组
val keyedStream = dataStream.keyBy(0)
也可以使用字段名来指定Key,比如StockPrice里的股票代号symbol:
val stockPriceStream: DataStream[StockPrice] = stockPriceRawStream.keyBy(_.symbol)
一旦按照Key分组后,我们后续可以按照Key进行时间窗口的处理和状态的创建和更新。数据流里包含相同Key的数据都可以访问和修改相同的状态。关于如何指定Key,时间窗口和状态等知识,本专栏后续将有专门的文章来介绍。
aggregation常见的聚合操作有Sum、max、min等,这些聚合操作统称为aggregation。aggregation需要一个参数来指定按照哪个字段进行聚合。跟keyBy相似,我们可以使用数字位置来指定对哪个字段进行聚合,也可以使用字段名。
与批处理不同,这些聚合函数是对流数据进行数据,流数据是依次进入Flink的,聚合操作是对之前流入的数据进行统计聚合。sum算子的功能对该字段进行加和,并将结果保存在该字段上。min操作无法确定其他字段的数值。
val tupleStream = senv.fromElements(
(0 0 0) (0 1 1) (0 2 2)
(1 0 6) (1 1 7) (1 2 8)
)
// 按第一个字段分组,对第二个字段求和,打印出来的结果如下:
// (0 0 0)
// (0 1 0)
// (0 3 0)
// (1 0 6)
// (1 1 6)
// (1 3 6)
val sumStream = tupleStream.keyBy(0).sum(1).print()
max算子对该字段求最大值,并将结果保存在该字段上。对于其他字段,该操作并不能保证其数值。
// 按第一个字段分组,对第三个字段求最大值max,打印出来的结果如下:
// (0 0 0)
// (0 0 1)
// (0 0 2)
// (1 0 6)
// (1 0 7)
// (1 0 8)
val maxStream = tupleStream.keyBy(0).max(2).print()
maxBy算子对该字段求最大值,maxBy与max的区别在于,maxBy同时保留其他字段的数值,即maxBy可以得到数据流中最大的元素。
// 按第一个字段分组,对第三个字段求最大值maxBy,打印出来的结果如下:
// (0 0 0)
// (0 1 1)
// (0 2 2)
// (1 0 6)
// (1 1 7)
// (1 2 8)
val maxByStream = tupleStream.keyBy(0).maxBy(2).print()
同样,min和minBy的区别在于,min算子对某字段求最小值,minBy返回具有最小值的元素。
其实,这些aggregation操作里已经封装了状态数据,比如,sum算子内部记录了当前的和,max算子内部记录了当前的最大值。由于内部封装了状态数据,而且状态数据并不会被清理,因此一定要避免在一个无限数据流上使用aggregation。
注意,对于一个KeyedStream 一次只能使用一个aggregation操作,无法链式使用多个。
reduce前面几个aggregation是几个较为特殊的操作,对分组数据进行处理更为通用的方法是使用reduce算子。
reduce示意图
上图展示了reduce算子的原理:reduce在按照同一个Key分组的数据流上生效,它接受两个输入,生成一个输出,即两两合一地进行汇总操作,生成一个同类型的新元素。
case class Score(name: String course: String score: Int)
val dataStream: DataStream[Score] = senv.fromElements(
Score("Li" "English" 90) Score("Wang" "English" 88) Score("Li" "Math" 85)
Score("Wang" "Math" 92) Score("Liu" "Math" 91) Score("Liu" "English" 87))
class MyReduceFunction() extends ReduceFunction[Score] {
// reduce 接受两个输入,生成一个同类型的新的输出
override def reduce(s1: Score s2: Score): Score = {
Score(s1.name "Sum" s1.score s2.score)
}
}
val sumReduceFunctionStream = dataStream
.keyBy("name")
.reduce(new MyReduceFunction)
使用Lambda表达式更简洁一些:
val sumLambdaStream = dataStream
.keyBy("name")
.reduce((s1 s2) => Score(s1.name "Sum" s1.score s2.score))