问题一:Flink同步mysql的数据, 然后做CEP处理,编译就报错,是不支持mysql吗?
Flink同步mysql的数据, 然后做CEP处理,编译就报错,是不支持mysql吗?
参考回答:
您好,看报错信息是,Match recognition不支持消费由节点Tablesourcescan产生的更新和删除更改。参考https://help.aliyun.com/zh/flink/getting-started/getting-started-with-dynamic-flink-cep?spm=a2c4g.11186623.0.0.23f67052ABZ2v3
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/608101
问题二:在Flink是不是 HOP 函数有bug,还是我写法有问题?
在Flink是不是 HOP 函数有bug,还是我写法有问题?
参考回答:
根据您提供的链接,我无法直接访问到您的Flink作业和数据。但是,我可以提供一些建议来帮助您排查问题:
- 检查HOP函数的使用:请确保您正确地使用了HOP函数。HOP函数通常用于计算两个事件之间的时间间隔。在使用HOP函数时,需要指定时间字段和时间单位。例如,
HOP(event_time, INTERVAL '5' MINUTE)
表示计算两个事件之间的时间间隔是否大于等于5分钟。请确保您的HOP函数使用正确,并且与源数据的时间字段匹配。 - 检查源数据:请确保您的源数据包含足够的信息,以便进行正确的计算。根据您的描述,源数据表有4条数据,但结果只出来一个结果。这可能是由于源数据中的某些字段没有正确地填充或更新。请检查源数据表的结构,并确保所有必要的字段都有值。
- 查看日志和错误信息:在Flink作业的日志中查找任何错误或异常信息。这可能会提供有关问题的更多详细信息。您可以在Flink Web界面中找到作业的日志,或者通过命令行工具(如
flink log
)查看日志。 - 调试代码:如果以上步骤都无法解决问题,您可以尝试在本地环境中运行类似的代码,以进一步调试和排查问题。这样可以让您更好地了解问题所在,并找到解决方案。
总之,如果您遇到问题,建议您仔细检查HOP函数的使用、源数据表的结构以及Flink作业的日志,以找出问题的根源。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/608098
问题三:用flink cdc去读取rds postgresql的日志突然就跑不通了,怎么回事?
用flink cdc去读取rds postgresql的日志突然就跑不通了,怎么回事?
参考回答:
你把 这个 测试的集群 重启一下 再执行一下,这个目前是 vvp的一个bug。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/608097
问题四:FlinkSql在进行窗口聚合的时候,出现无数据情况,kafka消息频率每秒50条
FlinkSql在进行窗口聚合的时候,出现无数据情况,kafka消息频率每秒50条
参考回答:
已找到问题,kafka有多个partition,只有一个partition更新数据,并行度设置为1,导致水位线被无数据的partition拉高,数据落不到窗口范围内,更改并行度后解决
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/608007
问题五:Flink CDC 里这是什么问题?
Flink CDC 里这是什么问题?
参考回答:
server-id 每次启动任务 随机生成一个, 别和其他人物的额一样。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/607773