开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

作业升级的流程是什么?

已解决

作业升级的流程是什么?

展开
收起
游客lmkkns5ck6auu 2022-08-31 11:18:49 299 0
1 条回答
写回答
取消 提交回答
  • 推荐回答

    Task 在 open function 的时候读取业务 State 数据存储到外部。如果是 Keyed State,则 State 接口无法获取当前 task 的所有 State 数据,需要将 State 对象进行向下类型强转,然后获取所有 State 数据指标引擎。作业通过配置指定对应的 offset,通过从外部补齐数据的方式进行指标计算,从而 完成数据恢复。其次是指标作业在不断新增过程中存在的痛点,多个作业重复消费同一个 Kafka 导致上游消费压力大以及指标重复计算的问题。

    解决方法是对所有作业进行统一优化,对所有消息源进行统一预清洗,按照业务过程分发到对应的数据域 Topic 中。对指标进行统一的口径管理,保证指标不重复计算。目前没有对实时指标进行分层处理,主要为了避免在计算链路过长从而影响业务的时效性。第三是Flink CEP 存在的问题。实时决策的模块是通过 Flink CEP 进行规则匹配,最初是通过程序编码的方式实现规则的匹配,然而随着规则越来越多,不便于维护,开发成本也随之增加。Flink CEP 无法进行动态的规则 配置以及多个规则并行决策。

    针对上述问题,翼支付对 Flink CEP 进行了扩展开发来解决规则动态配置以及多个规则决策的问题。

    以上内容摘自《Apache Flink 案例集(2022版)》电子书,点击https://developer.aliyun.com/ebook/download/7718 可下载完整版

    2022-08-31 13:22:05
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

热门讨论

热门文章

相关电子书

更多
DataWorks调度配置最佳实践 立即下载
DataWorks调度最佳实践 立即下载
DataWorks V2新版本功能揭秘 立即下载