问题一:Flink这个问题怎么解决?
Flink这个问题怎么解决?mysql binlog或holo binlog 写入 kafka 都会记录after、before和op, 有没有参数设置去掉这几个key,只写入after里头的内容
参考答案:
在Flink中,可以通过配置Debezium MySQL Connector
或Debezium PostgreSQL Connector
来控制写入Kafka的数据内容。具体来说,可以通过设置`in
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/608111
问题二:Flink的mysql当维表时能开启异步么?
Flink的mysql当维表时能开启异步么?
参考答案:
当前不支持,支持的是holo、lindorm和Hbase。https://help.aliyun.com/zh/flink/developer-reference/mysql-connector?spm=a2c4g.11186623.0.i35
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/608110
问题三:在Flink原表数据和例子一样的,但这结果和你的结果 不一样,感觉少了数据。知道什么原因吗?
在Flink原表数据和例子一样的,但这结果和你的结果 不一样,感觉少了数据。知道什么原因吗?
参考答案:
这种情况是正常的。没有不在这一窗口时间的新数据进来,前面那个窗口的数据不会计算。您重新插入数据
insert into source_clicks values
('Tom','http://taobao.com/xxx','2017-10-10 10:03:00.0'),
('Tom','http://taobao.com/xxx','2017-10-10 10:03:10.0'),
('Tom','http://taobao.com/xxx','2017-10-10 10:03:49.0'),
('Tom','http://taobao.com/xxx','2017-10-10 10:03:05.0'),
('Tom','http://taobao.com/xxx','2017-10-10 10:03:58.0'),
('Tom','http://taobao.com/xxx','2017-10-10 10:04:10.0'); 然后再调试一次,就会出来了。
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/608107
问题四:flink sql数据写入kafka,会出现key为before、after及op,怎么把这些去掉?
flink sql数据写入kafka,会出现key为before、after及op,怎么把这几个去掉?我写入的数据直接是json格式
参考答案:
麻烦您看一下这篇文档
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/608106
问题五:实时计算Flink解决了这个问题没有?
实时计算Flink解决了这个问题没有?
我们业务比较简单粗放,我希望直接通过SQL作业降业务表打款入仓。我担心如果SQL过多出现大量Flink与业务库的连接影响业务库性能
参考答案:
请看文档
关于本问题的更多回答可点击进行查看: