开发者社区> 问答> 正文

JDBC Sink参数connector.write.max-retries 在Oracle中的问题

在使用jdbc sink时,底层使用oracle驱动会出现bug。  出现的现象:当max-retries参数设置为1时,任务能正常报错;当max-retries参数大于1时,虽然程序内部报错,但是任务总是正常结束。 

在JDBCUpsertOutputFormat.java中的flush()方法中,设计了重试机制:  public synchronized void flush() throws Exception {  checkFlushException(); 

for (int i = 1; i <= maxRetryTimes; i++) {  try {  jdbcWriter.executeBatch();  batchCount = 0;  break;  } catch (SQLException e) {  LOG.error("JDBC executeBatch error, retry times = {}", i, e);  if (i >= maxRetryTimes) {  //throw e;  System.exit(-1);  }  Thread.sleep(1000 * i);  }  }  }  但是当executeBatch出现异常时,会进入异常捕获,并清空rank信息(ojdbc14的5339行):  } catch (SQLException var17) {  this.clearBatch();  this.needToParse = true;  if (this.sqlKind != 1 && this.sqlKind != 4) {  for(var3 = 0; var3 < var4.length; ++var3) {  var4[var3] = -3;  }  } 

DatabaseError.throwBatchUpdateException(var17, this.sqlKind != 1 && this.sqlKind != 4 ? var4.length : var3, var4);  } finally {  下一次执行executeBatch时,由于rank为0,会直接跳过插入操作,返回成功。  public int[] executeBatch() throws SQLException {  synchronized(this.connection) {  int[] var10000;  synchronized(this) {  int var3 = 0;  this.setJdbcBatchStyle();  int[] var4 = new int[this.currentRank];  if (this.currentRank > 0) {  this.ensureOpen();  从而导致第二次重试的时候直接跳过插入操作,成功返回。*来自志愿者整理的flink邮件归档

展开
收起
玛丽莲梦嘉 2021-12-02 16:39:58 683 0
1 条回答
写回答
取消 提交回答
  • 这是jdbc sink 的AppenOnlyWriter的一个已知bug,在1.10.1里已经修复[1],社区近期在准备1.10.1的发布,  建议等1.10.1发布后升级即可。[1]https://issues.apache.org/jira/browse/FLINK-16281 https://issues.apache.org/jira/browse/FLINK-16281*来自志愿者整理的FLINK邮件归档

    2021-12-02 17:34:35
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
PostgresChina2018_樊文凯_ORACLE数据库和应用异构迁移最佳实践 立即下载
PostgresChina2018_王帅_从Oracle到PostgreSQL的数据迁移 立即下载
Oracle云上最佳实践 立即下载

相关镜像