我通过Scala接口使用Flink进行一些数据处理。我有一些元组中的用户数据:
(user1, "titanic")
(user1, "titanic")
(user1, "batman")
(user2, "star wars")
(user2, "star wars")
(user2, "batman")
我想要由用户键入,创建一个窗口,然后计算用户在该窗口中查看特定电影的次数,这样我最终得到每个电影的map到每个用户的视图数量。例如,对于user1,正确的输出是Map("titanic" -> 2, "batman" -> 1)。我知道我的代码的第一部分应该是这样的:
keyedStream.keyBy(0).window(EventTimeSessionWindows.withGap(Time.minutes(10)))
但我不知道如何在窗口内进行进一步聚合,以便最终得到每个用户/窗口的视图计数。我试图编写自己的AggregateFunction,将这些计数收集到一个可变的Map中,但不幸的是,一个可变的Map不可序列化,所以它失败了。
我怎么能这样做?我通过Scala接口使用Flink进行一些数据处理。我有一些元组中的用户数据:
(user1, "titanic")
(user1, "titanic")
(user1, "batman")
(user2, "star wars")
(user2, "star wars")
(user2, "batman")
我想要由用户键入,创建一个窗口,然后计算用户在该窗口中查看特定电影的次数,这样我最终得到每个电影的map到每个用户的视图数量。例如,对于user1,正确的输出是Map("titanic" -> 2, "batman" -> 1)。我知道我的代码的第一部分应该是这样的:
keyedStream.keyBy(0).window(EventTimeSessionWindows.withGap(Time.minutes(10)))
但我不知道如何在窗口内进行进一步聚合,以便最终得到每个用户/窗口的视图计数。我试图编写自己的AggregateFunction,将这些计数收集到一个可变的Map中,但不幸的是,一个可变的Map不可序列化,所以它失败了。
我怎么能这样做?
通过使用以下方法解决问题AggregateFunction:
source
.keyBy(0)
.timeWindow(Time.seconds(10L))
.aggregate(new AggregateFunction[(String, String), (String, Map[String, Int]), (String, Map[String, Int])] {
override def createAccumulator(): (String, Map[String, Int]) = ("", Map())
override def add(value: (String, String), accumulator: (String, Map[String, Int])): (String, Map[String, Int]) = {
val counter = accumulator._2.getOrElse(value._2, 0)
(value._1, accumulator._2 + (value._2 -> (counter + 1)))
}
override def getResult(accumulator: (String, Map[String, Int])): (String, Map[String, Int]) = accumulator
override def merge(a: (String, Map[String, Int]), b: (String, Map[String, Int])): (String, Map[String, Int]) = {
(a._1, (a._2.keySet ++ b._2.keySet) map (k => k -> (a._2.getOrElse(k, 0) + b._2.getOrElse(k, 0))) toMap)
}
})
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。