开发者社区> 问答> 正文

flink sql如何处理脏数据?

业务上游数据源发出来的数据有可能会有脏数据导致数据无法解析成源表的结构,如kafka json topic映射成源表。  请问这种情况下flink sql要如何处理? 期望的是将脏数据发到一个专门的topic,是不是要自己写个connector? 标准kafka connector支持这种需求么?*来自志愿者整理的flink邮件归档

展开
收起
又出bug了-- 2021-12-02 11:43:34 1596 0
1 条回答
写回答
取消 提交回答
  • Flink代码里Json反序列化里有2个参数应该对你有帮助,你到官网上查询下怎么使用 

    上述2个配置项的参数名字分别是: 

    format.fail-on-missing-field  format.ignore-parse-errors*来自志愿者整理的FLINK邮件归档

    2021-12-02 14:25:26
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
SQL Server在电子商务中的应用与实践 立即下载
GeoMesa on Spark SQL 立即下载
原生SQL on Hadoop引擎- Apache HAWQ 2.x最新技术解密malili 立即下载