Apache Flink 1.14.4 Release Announcement

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
简介: 这个版本修复了 51 个 bug 和漏洞,并对 Flink 1.14 进行了小的改进。下面是所有 bug 修复和改进的列表(不包括对构建基础结构和构建稳定性的改进)。有关所有更改的完整列表,请参阅: JIRA我们强烈建议所有用户升级到 Flink 1.14.4。

这个版本修复了 51 个 bug 和漏洞,并对 Flink 1.14 进行了小的改进。下面是所有 bug 修复和改进的列表(不包括对构建基础结构和构建稳定性的改进)。有关所有更改的完整列表,请参阅: JIRA


我们强烈建议所有用户升级到 Flink 1.14.4。


Release Artifacts
Maven Dependencies
<dependency>
  <groupId>org.apache.flink</groupId>
  <artifactId>flink-java</artifactId>
  <version>1.14.4</version>
</dependency>
<dependency>
  <groupId>org.apache.flink</groupId>
  <artifactId>flink-streaming-java_2.11</artifactId>
  <version>1.14.4</version>
</dependency>
<dependency>
  <groupId>org.apache.flink</groupId>
  <artifactId>flink-clients_2.11</artifactId>
  <version>1.14.4</version>
</dependency>
Binaries


您可以在更新下载页面上找到二进制文件 Downloads page.


Docker Images


library/flink (official images)
apache/flink (ASF repository)


PyPi


apache-flink==1.14.4
Release Notes


Sub-task


[FLINK-21788] - Throw PartitionNotFoundException if the partition file has been lost for blocking shuffle
[FLINK-24954] - Reset read buffer request timeout on buffer recycling for sort-shuffle
[FLINK-25653] - Move buffer recycle in SortMergeSubpartitionReader out of lock to avoid deadlock
[FLINK-25654] - Remove the redundant lock in SortMergeResultPartition
[FLINK-25879] - Track used search terms in Matomo
[FLINK-25880] - Implement Matomo in Flink documentation


Bug


[FLINK-21752] - NullPointerException on restore in PojoSerializer
[FLINK-23946] - Application mode fails fatally when being shut down
[FLINK-24334] - Configuration kubernetes.flink.log.dir not working
[FLINK-24407] - Pulsar connector chinese document link to Pulsar document location incorrectly.
[FLINK-24607] - SourceCoordinator may miss to close SplitEnumerator when failover frequently
[FLINK-25171] - When the DDL statement was executed, the column names of the Derived Columns were not validated
[FLINK-25199] - StreamEdges are not unique in self-union, which blocks propagation of watermarks
[FLINK-25362] - Incorrect dependencies in Table Confluent/Avro docs
[FLINK-25407] - Network stack deadlock when cancellation happens during initialisation
[FLINK-25466] - TTL configuration could parse in StateTtlConfig#DISABLED
[FLINK-25486] - Perjob can not recover from checkpoint when zookeeper leader changes
[FLINK-25494] - Duplicate element serializer during DefaultOperatorStateBackendSnapshotStrategy#syncPrepareResources
[FLINK-25678] - TaskExecutorStateChangelogStoragesManager.shutdown is not thread-safe
[FLINK-25683] - wrong result if table transfrom to DataStream then window process in batch mode
[FLINK-25728] - Potential memory leaks in StreamMultipleInputProcessor
[FLINK-25732] - Dispatcher#requestMultipleJobDetails returns non-serialiable collection
[FLINK-25827] - Potential memory leaks in SourceOperator
[FLINK-25856] - Fix use of UserDefinedType in from_elements
[FLINK-25883] - The value of DEFAULT_BUNDLE_PROCESSOR_CACHE_SHUTDOWN_THRESHOLD_S is too large
[FLINK-25893] - ResourceManagerServiceImpl's lifecycle can lead to exceptions
[FLINK-25952] - Savepoint on S3 are not relocatable even if entropy injection is not enabled
[FLINK-26039] - Incorrect value getter in map unnest table function
[FLINK-26159] - Pulsar Connector: should add description MAX_FETCH_RECORD in doc to explain slow consumption
[FLINK-26160] - Pulsar Connector: stopCursor description should be changed. Connector only stop when auto discovery is disabled.
[FLINK-26187] - Chinese docs override english aliases
[FLINK-26304] - GlobalCommitter can receive failed committables
New Feature
[FLINK-20188] - Add Documentation for new File Source
[FLINK-21407] - Clarify which sources and APIs support which formats
Improvement
[FLINK-20830] - Add a type of HEADLESS_CLUSTER_IP for rest service type
[FLINK-24880] - Error messages "OverflowError: timeout value is too large" shown when executing PyFlink jobs
[FLINK-25160] - Make doc clear: tolerable-failed-checkpoints counts consecutive failures
[FLINK-25611] - Remove CoordinatorExecutorThreadFactory thread creation guards
[FLINK-25650] - Document unaligned checkpoints performance limitations (larger records/flat map/timers/...)
[FLINK-25767] - Translation of page 'Working with State' is incomplete
[FLINK-25818] - Add explanation how Kafka Source deals with idleness when parallelism is higher then the number of partitions
Technical Debt
[FLINK-25576] - Update com.h2database:h2 to 2.0.206
[FLINK-25785] - Update com.h2database:h2 to 2.0.210


相关实践学习
基于Hologres轻松玩转一站式实时仓库
本场景介绍如何利用阿里云MaxCompute、实时计算Flink和交互式分析服务Hologres开发离线、实时数据融合分析的数据大屏应用。
Linux入门到精通
本套课程是从入门开始的Linux学习课程,适合初学者阅读。由浅入深案例丰富,通俗易懂。主要涉及基础的系统操作以及工作中常用的各种服务软件的应用、部署和优化。即使是零基础的学员,只要能够坚持把所有章节都学完,也一定会受益匪浅。
相关文章
|
2月前
|
SQL Java API
Apache Flink 2.0-preview released
Apache Flink 社区正积极筹备 Flink 2.0 的发布,这是自 Flink 1.0 发布以来的首个重大更新。Flink 2.0 将引入多项激动人心的功能和改进,包括存算分离状态管理、物化表、批作业自适应执行等,同时也包含了一些不兼容的变更。目前提供的预览版旨在让用户提前尝试新功能并收集反馈,但不建议在生产环境中使用。
752 13
Apache Flink 2.0-preview released
|
2月前
|
存储 缓存 算法
分布式锁服务深度解析:以Apache Flink的Checkpointing机制为例
【10月更文挑战第7天】在分布式系统中,多个进程或节点可能需要同时访问和操作共享资源。为了确保数据的一致性和系统的稳定性,我们需要一种机制来协调这些进程或节点的访问,避免并发冲突和竞态条件。分布式锁服务正是为此而生的一种解决方案。它通过在网络环境中实现锁机制,确保同一时间只有一个进程或节点能够访问和操作共享资源。
82 3
|
3月前
|
SQL 消息中间件 关系型数据库
Apache Doris Flink Connector 24.0.0 版本正式发布
该版本新增了对 Flink 1.20 的支持,并支持通过 Arrow Flight SQL 高速读取 Doris 中数据。
|
4月前
|
消息中间件 监控 数据挖掘
基于RabbitMQ与Apache Flink构建实时分析系统
【8月更文第28天】本文将介绍如何利用RabbitMQ作为数据源,结合Apache Flink进行实时数据分析。我们将构建一个简单的实时分析系统,该系统能够接收来自不同来源的数据,对数据进行实时处理,并将结果输出到另一个队列或存储系统中。
262 2
|
3月前
|
消息中间件 资源调度 API
Apache Flink 流批融合技术介绍
本文源自阿里云高级研发工程师周云峰在Apache Asia Community OverCode 2024的分享,内容涵盖从“流批一体”到“流批融合”的演进、技术解决方案及社区进展。流批一体已在API、算子和引擎层面实现统一,但用户仍需手动配置作业模式。流批融合旨在通过动态调整优化策略,自动适应不同场景需求。文章详细介绍了如何通过量化指标(如isProcessingBacklog和isInsertOnly)实现这一目标,并展示了针对不同场景的具体优化措施。此外,还概述了社区当前进展及未来规划,包括将优化方案推向Flink社区、动态调整算子流程结构等。
417 31
Apache Flink 流批融合技术介绍
|
2月前
|
分布式计算 监控 大数据
大数据-148 Apache Kudu 从 Flink 下沉数据到 Kudu
大数据-148 Apache Kudu 从 Flink 下沉数据到 Kudu
66 1
|
2月前
|
数据挖掘 物联网 数据处理
深入探讨Apache Flink:实时数据流处理的强大框架
在数据驱动时代,企业需高效处理实时数据流。Apache Flink作为开源流处理框架,以其高性能和灵活性成为首选平台。本文详细介绍Flink的核心特性和应用场景,包括实时流处理、强大的状态管理、灵活的窗口机制及批处理兼容性。无论在实时数据分析、金融服务、物联网还是广告技术领域,Flink均展现出巨大潜力,是企业实时数据处理的理想选择。随着大数据需求增长,Flink将继续在数据处理领域发挥重要作用。
112 0
|
2月前
|
消息中间件 druid Kafka
从Apache Flink到Kafka再到Druid的实时数据传输,用于分析/决策
从Apache Flink到Kafka再到Druid的实时数据传输,用于分析/决策
82 0
|
4月前
|
Java 微服务 Spring
驾驭复杂性:Spring Cloud在微服务构建中的决胜法则
【8月更文挑战第31天】Spring Cloud是在Spring Framework基础上打造的微服务解决方案,提供服务发现、配置管理、消息路由等功能,适用于构建复杂的微服务架构。本文介绍如何利用Spring Cloud搭建微服务,包括Eureka服务发现、Config Server配置管理和Zuul API网关等组件的配置与使用。通过Spring Cloud,可实现快速开发、自动化配置,并提升系统的伸缩性和容错性,尽管仍需面对分布式事务等挑战,但其强大的社区支持有助于解决问题。
80 0
|
4月前
|
消息中间件 Java 数据处理
揭秘Apache Flink的Exactly-Once神技:如何在数据流海中确保每条信息精准无误,不丢不重?
【8月更文挑战第26天】Apache Flink 是一款先进的流处理框架,其核心特性 Exactly-Once 语义保证了数据处理的精准无误。尤其在金融及电商等高要求场景下,该特性极为关键。本文深入解析 Flink 如何实现 Exactly-Once 语义:通过状态管理确保中间结果可靠存储;利用一致的检查点机制定期保存状态快照;以及通过精确的状态恢复避免数据重复处理或丢失。最后,提供一个 Java 示例,展示如何计算用户访问次数,并确保 Exactly-Once 语义的应用。
100 0

推荐镜像

更多