开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

flink-oracle-cdc 2.4.1 cancel任务后从sp恢复的时候提示这个错误?

flink-oracle-cdc 2.4.1 cancel任务后从sp恢复的时候提示这个错误?2023-09-05 10:53:31,766 ERROR io.debezium.pipeline.ErrorHandler [] - Producer failure
java.sql.SQLException: ORA-01292: no log file has been specified for the current LogMiner session
ORA-06512: at "SYS.DBMS_LOGMNR", line 58
ORA-06512: at line 1

at oracle.jdbc.driver.T4CTTIoer11.processError(T4CTTIoer11.java:509) ~[flink-sql-connector-oracle-cdc-2.4.1.jar:2.4.1]
at oracle.jdbc.driver.T4CTTIoer11.processError(T4CTTIoer11.java:461) ~[flink-sql-connector-oracle-cdc-2.4.1.jar:2.4.1]
at oracle.jdbc.driver.T4C8Oall.processError(T4C8Oall.java:1104) ~[flink-sql-connector-oracle-cdc-2.4.1.jar:2.4.1]

展开
收起
真的很搞笑 2023-09-12 18:19:31 176 0
1 条回答
写回答
取消 提交回答
  • 根据您提供的错误信息,发现在Flink Oracle CDC 2.4.1中取消任务后从Savepoint恢复时遇到了以下错误:
    ```2023-09-05 10:53:31,766 ERROR io.debezium.pipeline.ErrorHandler [] - Producer failure
    java.sql.SQLException: ORA-01292: no log file has been specified for the current LogMiner session
    ORA-06512: at "SYS.DBMS_LOGMNR", line 58
    ORA-06512: at line 1

    这个错误通常是由于Oracle数据库的日志文件配置问题引起的。当Flink CDC使用Oracle LogMiner进行CDC时,需要指定要分析的日志文件。在取消任务后重新从Savepoint恢复时,可能导致LogMiner会话丢失了所需的日志文件信息,从而引发该错误。
    
    为了解决这个问题,可以尝试以下方法:
    
    确保Oracle数据库的归档日志模式已启用,这样可以确保所有的日志文件都得到了归档并可供LogMiner使用。
    
    检查Oracle数据库的日志文件配置,确保LogMiner会话能够正确访问和使用日志文件。可以使用以下SQL查询来查看当前LogMiner会话的日志文件配置:
    
    ```SELECT * FROM V$LOGMNR_LOGS;
    

    ```EXECUTE DBMS_LOGMNR.END_LOGMNR;

    ```
    确保数据库归档目标目录中的所有日志文件都处于可访问状态。

    重新启动Flink任务并从Savepoint恢复。

    如果问题仍然存在,请确保您正在使用的Flink Oracle CDC版本与您的Oracle数据库版本兼容,并考虑向Flink社区报告该问题或寻求更详细的技术支持。

    2023-09-22 17:55:16
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 热门讨论

    热门文章

    相关电子书

    更多
    PostgresChina2018_樊文凯_ORACLE数据库和应用异构迁移最佳实践 立即下载
    PostgresChina2018_王帅_从Oracle到PostgreSQL的数据迁移 立即下载
    Oracle云上最佳实践 立即下载

    相关镜像