问题一:Flink中executeplain和statementset怎么结合?
Flink中executeplain和statementset怎么结合?
参考答案:
主要用于批处理 SQL 程序中执行一系列的 SQL 语句。StatementSet 提供了一种方式来添加多个 SQL insert、update 或 delete 语句,并能够以原子性和一次提交的方式来执行它们。
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/587273
问题二:streamAPI闯天下,目前flinkSQL也要转换成stream运行,因为SQL是建立在stre
streamAPI闯天下,目前flinkSQL也要转换成stream运行,因为SQL是建立在stream之上的,那么用什么flinkSQL?
参考答案:
使用对象不一样
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/587271
问题三:Flink是不能直接用 sql api?
Flink是不能直接用 sql api, 要用stream api map 取出来再用sql api 做进步的处理吗?
参考答案:
你直接用的话数据太乱了,你自己map成{"id":"","":"" ....,"createtime":""}这种数据看的不更清楚吗
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/587270
问题四:Flink在算子里之后要怎么处理啊,调用第三方json解析包去解析json吗?
Flink在算子里之后要怎么处理啊,调用第三方json解析包去解析json吗?
参考答案:
你要处理数据就在map算子里处理,他本来就是json,所以什么工具获取修改json的值随便,如果你是中间还要连接其他服务就用process算子
你们不复用的话可以匿名内部类实现在这里实现的逻辑就行了
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/587269
问题五:Flink中,未提交的数据仍然能被消费到kafkaSource 配置了isolation.level
Flink中,未提交的数据仍然能被消费到kafkaSource 配置了isolation.level=read_committed,为什么不生效啊?
参考答案:
Flink 不生效的原因可能有以下几点:
- Flink 版本问题:请确保您使用的 Flink 版本与 KafkaSource 和 KafkaSink 兼容。您可以查看 Flink 官方文档以获取有关兼容性的信息。
- Kafka 配置问题:请检查您的 Kafka 配置,确保它们与 Flink 的配置相匹配。特别是关于 isolation.level 的配置,它应该与 Flink 的消费者组设置相匹配。
- Flink 作业提交问题:请确保您已正确提交 Flink 作业。您可以使用以下命令提交 Flink 作业:
./bin/flink run -c <your_job_class> <your_job_jar> --input-path <your_input_path> --output-path <your_output_path>
- Flink 作业状态问题:请检查 Flink 作业的状态,确保它已成功启动并运行。您可以使用以下命令查看 Flink 作业的状态:
./bin/flink list
- Kafka Source 配置问题:请检查您的 Kafka Source 配置,确保它们与 Flink 的配置相匹配。特别是关于 isolation.level 的配置,它应该与 Flink 的消费者组设置相匹配。
关于本问题的更多回答可点击进行查看: