开发者社区> 问答> 正文

在Flink SQL的JDBC Connector中,Oracle的TIMESTAMP字段类型转换?

在使用Flink SQL读写Oracle JDBC表时,遇到了timestamp转换异常:  Caused by: java.lang.ClassCastException: oracle.sql.TIMESTAMP cannot be cast to java.sql.Timestamp at org.apache.flink.table.dataformat.DataFormatConverters$TimestampConverter.toInternalImpl(DataFormatConverters.java:860) at org.apache.flink.table.dataformat.DataFormatConverters$DataFormatConverter.toInternal(DataFormatConverters.java:344) at org.apache.flink.table.dataformat.DataFormatConverters$RowConverter.toInternalImpl(DataFormatConverters.java:1377) at org.apache.flink.table.dataformat.DataFormatConverters$RowConverter.toInternalImpl(DataFormatConverters.java:1365)  看报错原因是Oracle JDBC返回的是oracle.sql.Timestamp, 而Flink的runtime-blink里面需要的参数类型java.sql.Timestamp。网上看到了解决方案:https://stackoverflow.com/questions/13269564/java-lang-classcastexception-oracle-sql-timestamp-cannot-be-cast-to-java-sql-ti/22055190#22055190不过我们是yarn session模式启动,如果想要修改系统参数需要把集群的每个参数都修改一遍。请问官方是否遇到这个问题,如何更优雅的解决?*来自志愿者整理的flink邮件归档

展开
收起
玛丽莲梦嘉 2021-12-02 16:45:42 2170 0
1 条回答
写回答
取消 提交回答
  • 据我所知现在还不能直接支持Oracle的driver吧?你是怎么使用Flink SQL读写oracle的哈?*来自志愿者整理的FLINK邮件归档

    2021-12-02 17:41:05
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
SQL Server在电子商务中的应用与实践 立即下载
GeoMesa on Spark SQL 立即下载
原生SQL on Hadoop引擎- Apache HAWQ 2.x最新技术解密malili 立即下载

相关镜像