【天衍系列 02】深入理解Flink的FileSink 组件:实时流数据持久化与批量写入

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
日志服务 SLS,月写入数据量 50GB 1个月
简介: 【天衍系列 02】深入理解Flink的FileSink 组件:实时流数据持久化与批量写入



Apache Flink 是一个强大的流处理框架,而 FileSink 作为其关键组件之一,负责将流处理结果输出到文件中。本文将详细介绍 FileSink 的各个方面,包括基本概念、实现细节以及代码示例。


01 基本概念

FileSink 是 Flink 中的 Sink 函数,用于将处理后的数据输出到文件系统。它能够处理实时数据流,并提供灵活的配置选项,允许用户定义输出文件的格式、路径和写入策略。


02 工作原理

FileSink 是 Apache Flink 中的一种 Sink 函数,用于将流处理的结果数据输出到文件系统。其原理涉及到 Flink 的数据流处理模型以及文件系统的操作。

  1. Sink 接口实现:FileSink 实现了 Flink 中的 Sink 接口,使得它可以被添加到流处理任务中,并接收数据流进行处理。
  2. 数据缓冲与批处理:FileSink 会将接收到的数据进行缓冲,直到缓冲区达到一定大小或者一定的时间间隔后,才会将数据批量写入到文件中。这种批处理机制可以有效地减少文件系统的写入开销,提高写入效率。
  3. 数据分桶:为了提高写入并行度和减少文件系统的并发写入冲突,FileSink 可以将数据分成多个不同的文件桶进行处理。每个文件桶对应着一个输出文件,数据流中的数据会根据某种规则分配到不同的文件桶中,然后分别写入到对应的文件中。
  4. 写入策略配置:FileSink 提供了丰富的配置选项,允许用户根据需求对写入策略进行灵活配置。用户可以设置批处理大小、写入文件的路径和命名规则、数据格式化方式、压缩算法等参数,以满足不同场景下的需求。
  5. 事务支持:为了保证数据写入的原子性和一致性,FileSink 支持事务机制。在写入数据时,会使用事务来保证数据的完整性,即要么所有数据都成功写入文件,要么都不写入,避免出现数据丢失或者不一致的情况。
  6. 故障恢复:FileSink 具备故障恢复机制,能够在节点故障或者任务失败后重新启动并继续写入数据。通过检查点和状态管理机制,可以确保在任务重启后能够从上一次的状态继续写入数据,从而保证数据的完整性和可靠性。
  7. 文件系统操作:FileSink 最终会将数据写入到文件系统中,这涉及到文件的创建、写入、刷新、关闭等操作。在写入数据时,会考虑文件系统的性能特性和限制,以及如何最大程度地利用文件系统的并发能力和缓存机制。

总的来说,FileSink 的原理包括了对数据流的缓冲和批处理、数据分桶、写入策略配置、事务支持、故障恢复和文件系统操作等多个方面,通过这些机制的组合,可以实现高效可靠地将数据写入到文件系统中。

03 滚动策略(RollingPolicy)

在Apache Flink中,FileSink是一种用于将数据写入文件的输出操作符。FileSink提供了一些滚动策略(Rolling Policy)的配置选项,这些策略用于控制如何滚动输出文件。滚动策略决定了何时创建新文件、如何确定文件名称以及何时关闭旧文件。以下是Flink中常见的滚动策略及其用途:

  1. 按时间滚动(Rolling Policy by Time): 这种策略会根据时间间隔滚动文件,通常是根据处理的时间戳或者是固定的时间窗口。
// 例如,每小时滚动一次的设置
RollingPolicy<T> rollingPolicy = DefaultRollingPolicy
    .builder()
    .withRolloverInterval(TimeUnit.HOURS.toMillis(1))
    .build();
  1. 按大小滚动(Rolling Policy by Size): 这种策略会根据文件大小滚动文件,通常用于限制每个文件的最大大小。
// 例如,每个文件大小限制为100 MB的设置
RollingPolicy<T> rollingPolicy = DefaultRollingPolicy
    .builder()
    .withMaxPartSize(1024 * 1024 * 100) // 100 MB
    .build();
  1. 按条件滚动(Rolling Policy by Condition): 这种策略根据特定条件滚动文件,比如当满足一定的事件数量或者是自定义的条件时滚动文件。
// 例如,每1000个事件滚动一次的设置
RollingPolicy<T> rollingPolicy = DefaultRollingPolicy
    .builder()
    .withMaxPartSize(1024 * 1024 * 100) // 100 MB
    .withMaxPartSize(1000) // 每1000个事件滚动一次
    .build();
  1. 按快照滚动(Rolling Policy by checkPoint):主要是针对forBulkFormat列模式的滚动策略,比较特殊
CheckpointRollingPolicy<String,String> rollingPolicy = new CheckpointRollingPolicy<>() {
    @Override
    public boolean shouldRollOnEvent(PartFileInfo<String> partFileInfo, String s) throws IOException {
        return false;
    }
    @Override
    public boolean shouldRollOnProcessingTime(PartFileInfo<String> partFileInfo, long l) throws IOException {
        return false;
    }
};

这些滚动策略可以根据具体的需求进行组合和定制。例如,你可以同时设置按时间和按大小滚动文件,以确保输出文件既满足时间要求又不会超过一定的大小限制。FileSink的滚动策略提供了灵活的配置选项,以满足各种输出场景的需求。


04 分桶策略(BucketAssigner)

在Flink中,FileSink使用Bucket桶的概念来组织和管理文件, 所谓桶,即数据应该去往哪个文件夹 。

  1. 按照时间分桶(Time-based Formatting): Bucket可以按照时间进行格式化,这在基于时间的窗口操作中很有用。
// 按照每小时一个Bucket进行分桶
BucketAssigner<T, String> customBucketAssigner = new DateTimeBucketAssigner<>("yyyy-MM-dd--HH");
  1. 按照其他条件分桶(Custom Formatting): 用户也可以自定义Bucket的格式化方式,根据特定的条件来组织Bucket。
// 自定义数据格式化
        BucketAssigner<String, String> customBucketAssigner = new BucketAssigner<>() {
            @Override
            public String getBucketId(String element, Context context) {
                // 获取当前时间戳(以秒为单位)
                long timestamp = System.currentTimeMillis() / 1000;
                // 将时间戳转换为 LocalDateTime 对象
                LocalDateTime dateTime = LocalDateTime.ofInstant(Instant.ofEpochSecond(timestamp), ZoneId.systemDefault());
                // 定义日期时间格式
                DateTimeFormatter formatter = DateTimeFormatter.ofPattern("yyyy-MM-dd");
                // 格式化日期时间对象为指定格式的字符串
                return formatter.format(dateTime);
            }
            @Override
            public SimpleVersionedSerializer<String> getSerializer() {
                return SimpleVersionedStringSerializer.INSTANCE;
            }
        };

05 压缩策略(Compression)

Flink的FileSink还支持在写入文件时对数据进行压缩,以减少存储空间和提高传输效率。

**forRowFormat 行模式下:**自定义内容限定于文件内部,想对文件进行压缩等操作,则很难办到; forBulkFormat 列模式下: **不仅可以对文件内部操作,也可以轻松做到对文件压缩等操作;

通过这些格式化和压缩的配置选项,FileSink提供了灵活性,使用户能够根据具体需求选择适当的方式来组织输出文件并控制文件大小。

  1. 不压缩(No Compression): 默认情况下,FileSink是不压缩数据的
// 不进行压缩
FileSink<String> sink = FileSink
    .forRowFormat(outputPath, new SimpleStringEncoder<T>("UTF-8"))
    .withBucketAssigner(customBucketAssigner)
    .withRollingPolicy(rollingPolicy)
    .withOutputFileConfig(outputFileConfig)
    .build();
  1. Gzip 压缩: FileSink支持使用Gzip算法对输出文件进行压缩。
package com.aurora.demo.FileSink;
import org.apache.commons.compress.compressors.gzip.GzipCompressorOutputStream;
import org.apache.flink.api.common.serialization.BulkWriter;
import org.apache.flink.core.fs.FSDataOutputStream;
import java.io.IOException;
/**
 * 描述:自定义列模式的文件压缩算法
 *
 * @author 浅夏的猫
 * @version 1.0.0
 * @date 2024-02-08 01:20:31
 */
public class CustomBulkWriterFactory implements BulkWriter.Factory<String> {
    @Override
    public BulkWriter<String> create(FSDataOutputStream out) throws IOException {
        GzipCompressorOutputStream gzipOutput = new GzipCompressorOutputStream(out);
        return new BulkWriter<>() {
            @Override
            public void addElement(String element) throws IOException {
                gzipOutput.write(element.getBytes());
            }
            @Override
            public void flush() throws IOException {
                gzipOutput.flush();
            }
            @Override
            public void finish() throws IOException {
                gzipOutput.close();
            }
        };
    }
}
  1. 其他压缩算法: 除了Gzip,FileSink还支持其他压缩算法,直接看源码包,也可以得到,例如Snappy算法等,可以根据需求选择合适的压缩算法。
commons-compress-1.21.jar
META-INF
org
apache
commons
compress
archivers
changes
compressors
brotli
bzip2
deflate
deflate64
gzip
lz4
lz77support
lzma
lzw
pack200
snappy
xz
z
zstandard
CompressorException
CompressorInputStream
CompressorOutputStream
CompressorStreamFactory
CompressorStreamProvider
FileNameUtil
harmony
java
parallel
utils
MemoryLimitException
PasswordRequiredException

06 文件命名策略( OutputFileConfig )

6.1 文件类型

Finished 状态与 In-progress 状态的文件只能通过命名来区分

  • In-progress / Pending:part–.inprogress.uid
  • Finished:part-- 当 Sink Subtask 实例化时,这的 uid 是一个分配给 Subtask 的随机 ID 值。这个 uid不具有容错机制,所以当 Subtask 从故障恢复时,uid会重新生成。

6.2 自定义文件前后缀

Flink 允许用户给 Part 文件名添加一个前缀和/或后缀。 使用 OutputFileConfig来完成上述功能。 例如,Sink 将在创建文件的文件名上添加前缀 “prefix” 和后缀 “.ext”,如下所示:

└── 2019-08-25--12
    ├── prefix-4005733d-a830-4323-8291-8866de98b582-0.ext
    ├── prefix-4005733d-a830-4323-8291-8866de98b582-1.ext.inprogress.bd053eb0-5ecf-4c85-8433-9eff486ac334
    ├── prefix-81fc4980-a6af-41c8-9937-9939408a734b-0.ext
    └── prefix-81fc4980-a6af-41c8-9937-9939408a734b-1.ext.inprogress.bc279efe-b16f-47d8-b828-00ef6e2fbd11

代码实现如图

OutputFileConfig outputFileConfig = OutputFileConfig.builder().withPartPrefix("Flink_").withPartSuffix(".dat").build();

07 文件合并策略( Compact)

从 1.15 版本开始 FileSink 开始支持已经提交 pending 文件的合并,从而允许应用设置一个较小的时间周期并且避免生成大量的小文件。 尤其是当用户使用 bulk 格式 的时候: 这种格式要求用户必须在 checkpoint 的时候切换文件。

7.1 合并方法

enableCompactionOnCheckpoint:表示相隔几个checkpoint做一次合并,默认1

setNumCompactThreads: 合并文件使用多少个线程,默认1

FileCompactor:合并算法

(1) IdenticalFileCompactor:直接复制一个文件的内容,到另一个文件,一次只能复制一个文件;

(2) ConcatFileCompactor:可以自定义两个文件直接的分割符,由构造方法传入。

(3) RecordWiseFileCompactor:自定义内容比较多

FileSink<String> fileSink = FileSink
//指定文件目录与文件写入编码格式
.forRowFormat(path, new SimpleStringEncoder<String>("UTF-8"))
//设置合并策略,
.enableCompact(FileCompactStrategy.Builder.newBuilder().enableCompactionOnCheckpoint(1).setNumCompactThreads(1).build(),new ConcatFileCompactor()).build();

7.2 合并原理

这一功能开启后,在文件转为 pending 状态与文件最终提交之间会进行文件合并。这些 pending 状态的文件将首先被提交为一个以 . 开头的 临时文件。这些文件随后将会按照用户指定的策略和合并方式进行合并并生成合并后的 pending 状态的文件。 然后这些文件将被发送给 Committer 并提交为正式文件,在这之后,原始的临时文件也会被删除掉。

当开启文件合并功能时,用户需要指定 FileCompactStrategy FileCompactor

FileCompactStrategy 指定何时以及哪些文件将被合并。 目前有两个并行的条件:目标文件大小与间隔的 Checkpoint 数量。当目前缓存的文件的总大小达到指定的阈值,或自上次合并后经过的 Checkpoint 次数已经达到指定次数时, FileSink 将创建一个异步任务来合并当前缓存的文件。

FileCompactor 指定如何将给定的路径列表对应的文件进行合并将结果写入到文件中。 根据如何写文件,它可以分为两类:

  • OutputStreamBasedFileCompactor : 用户将合并后的结果写入一个输出流中。通常在用户不希望或者无法从输入文件中读取记录时使用。这种类型的 CompactingFileWriter 的一个例子是 ConcatFileCompactor ,它直接将给定的文件进行合并并将结果写到输出流中。
  • RecordWiseFileCompactor : 这种类型的 CompactingFileWriter 会逐条读出输入文件的记录用户,然后和FileWriter一样写入输出文件中。CompactingFileWriter 的一个例子是 RecordWiseFileCompactor ,它从给定的文件中读出记录并写出到 CompactingFileWriter 中。用户需要指定如何从原始文件中读出记录。

注意事项1 一旦启用了文件合并功能,此后若需要再关闭,必须在构建FileSink时显式调用disableCompact方法。

注意事项2 如果启用了文件合并功能,文件可见的时间会被延长。

08 故障恢复机制

在分布式环境下,节点故障是常见的情况。FileSink 具备故障恢复机制,能够在节点故障后重新启动并继续写入数据,保证数据的完整性和可靠性。以下是一些关键的机制:

  1. 检查点(Checkpoints): Flink使用检查点机制来实现容错性。检查点是任务状态的一致性快照,它可以用于在任务失败时恢复到先前的状态。FileSink会在检查点时将当前写入的文件状态一并记录,以确保在任务重启时能够从检查点中正确恢复。
  2. Exactly-Once语义: Flink支持Exactly-Once语义,这是一种强一致性保证。这一般依赖于底层数据存储系统的事务性保证。FileSink可以配置为支持Exactly-Once语义,以确保在任务失败和恢复的情况下数据不会被重复写入或丢失。
  3. Write-Ahead Log(WAL): FileSink有时会使用Write-Ahead Log(WAL)来记录写入操作,类似于数据库的事务日志。这有助于在任务失败时能够回滚到一致的状态。WAL通常包含已经写入的操作记录,可以用于在任务恢复时重新应用。
  4. 幂等性写入: 在一些情况下,FileSink的写入逻辑被设计为具有幂等性。这意味着相同的写入操作可以安全地重复执行而不会产生不一致的结果。通过幂等性设计,即使在发生故障和重启时,最终结果也是相同的。

09 实际应用场景

Apache Flink的FileSin(例如BucketingSink)主要用于将流处理应用程序的结果写入分布式文件系统。以下是FileSink实际应用场景的一些例子:

  1. 批量数据导出: 当你需要将流处理应用程序处理的数据以批量方式导出到分布式文件系统时,FileSink是一个常见的选择。例如,你可以将某个时间窗口内的聚合结果写入文件,以便进行后续的分析或离线处理。
  2. 日志处理与归档: 在实时日志处理场景中,FileSink可用于将处理后的日志数据写入文件,以便进行长期存储或进一步分析。你可以按照时间、事件类型等标准将日志数据划分到不同的目录或文件中。
  3. 实时报表生成: 当你的流处理应用程序生成实时报表或分析结果时,FileSink可以将这些结果以可查询的格式写入文件系统。这使得报表或分析结果对于离线查询、共享和长期存储变得更加方便。
  4. 数据备份与复制: 如果你需要在不同的分布式文件系统之间进行数据备份或复制,FileSin可以用于将流处理应用程序的输出写入多个目标文件系统。这提供了一种有效的手段来保持数据的多副本一致性。
  5. 数据集成: 在数据集成和交换场景中,FileSink可以作为一种通用的输出端,将处理过的数据以文件形式输出。这使得不同系统之间的数据交换更加灵活,因为文件是一种通用的数据交换格式。

在这些场景中,FileSink的配置选项(如文件路径、格式化选项、分区策略等)可以根据具体的需求进行调整,以满足不同应用的要求。请注意,实际的应用场景可能需要根据具体的业务需求和数据特性进行定制。

10 项目集成demo

10.1 pom依赖

<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0"
         xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
         xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
    <modelVersion>4.0.0</modelVersion>
    <groupId>com.xsy</groupId>
    <artifactId>aurora_flink_connector_file</artifactId>
    <version>1.0-SNAPSHOT</version>
    <!--属性设置-->
    <properties>
        <!--java_JDK版本-->
        <java.version>11</java.version>
        <!--maven打包插件-->
        <maven.plugin.version>3.8.1</maven.plugin.version>
        <!--编译编码UTF-8-->
        <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
        <!--输出报告编码UTF-8-->
        <project.reporting.outputEncoding>UTF-8</project.reporting.outputEncoding>
    </properties>
    <!--通用依赖-->
    <dependencies>
        <!-- flink读取Text File文件依赖 start-->
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-connector-files</artifactId>
            <version>1.18.0</version>
        </dependency>
        <!-- flink读取Text File文件依赖 end-->
        <!-- flink基础依赖 start -->
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-java</artifactId>
            <version>1.18.0</version>
        </dependency>
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-streaming-scala_2.12</artifactId>
            <version>1.18.0</version>
        </dependency>
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-clients</artifactId>
            <version>1.18.0</version>
        </dependency>
        <!-- flink基础依赖 end -->
    </dependencies>
    <!--编译打包-->
    <build>
        <finalName>${project.name}</finalName>
        <!--资源文件打包-->
        <resources>
            <resource>
                <directory>src/main/resources</directory>
            </resource>
            <resource>
                <directory>src/main/java</directory>
                <includes>
                    <include>**/*.xml</include>
                </includes>
            </resource>
        </resources>
        <plugins>
            <plugin>
                <groupId>org.apache.maven.plugins</groupId>
                <artifactId>maven-shade-plugin</artifactId>
                <version>3.1.1</version>
                <executions>
                    <execution>
                        <phase>package</phase>
                        <goals>
                            <goal>shade</goal>
                        </goals>
                        <configuration>
                            <artifactSet>
                                <excludes>
                                    <exclude>org.apache.flink:force-shading</exclude>
                                    <exclude>org.google.code.flindbugs:jar305</exclude>
                                    <exclude>org.slf4j:*</exclude>
                                    <excluder>org.apache.logging.log4j:*</excluder>
                                </excludes>
                            </artifactSet>
                            <filters>
                                <filter>
                                    <artifact>*:*</artifact>
                                    <excludes>
                                        <exclude>META-INF/*.SF</exclude>
                                        <exclude>META-INF/*.DSA</exclude>
                                        <exclude>META-INF/*.RSA</exclude>
                                    </excludes>
                                </filter>
                            </filters>
                            <transformers>
                                <transformer implementation="org.apache.maven.plugins.shade.resource.ManifestResourceTransformer">
                                    <mainClass>org.aurora.KafkaStreamingJob</mainClass>
                                </transformer>
                            </transformers>
                        </configuration>
                    </execution>
                </executions>
            </plugin>
        </plugins>
        <!--插件统一管理-->
        <pluginManagement>
            <plugins>
                <!--maven打包插件-->
                <plugin>
                    <groupId>org.springframework.boot</groupId>
                    <artifactId>spring-boot-maven-plugin</artifactId>
                    <version>${spring.boot.version}</version>
                    <configuration>
                        <fork>true</fork>
                        <finalName>${project.build.finalName}</finalName>
                    </configuration>
                    <executions>
                        <execution>
                            <goals>
                                <goal>repackage</goal>
                            </goals>
                        </execution>
                    </executions>
                </plugin>
                <!--编译打包插件-->
                <plugin>
                    <artifactId>maven-compiler-plugin</artifactId>
                    <version>${maven.plugin.version}</version>
                    <configuration>
                        <source>${java.version}</source>
                        <target>${java.version}</target>
                        <encoding>UTF-8</encoding>
                        <compilerArgs>
                            <arg>-parameters</arg>
                        </compilerArgs>
                    </configuration>
                </plugin>
            </plugins>
        </pluginManagement>
    </build>
</project>

10.2 forRowFormat行模式作业

import org.apache.flink.api.common.serialization.SimpleStringEncoder;
import org.apache.flink.configuration.MemorySize;
import org.apache.flink.connector.file.sink.FileSink;
import org.apache.flink.connector.file.sink.compactor.*;
import org.apache.flink.core.fs.Path;
import org.apache.flink.core.io.SimpleVersionedSerializer;
import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.api.functions.sink.filesystem.BucketAssigner;
import org.apache.flink.streaming.api.functions.sink.filesystem.OutputFileConfig;
import org.apache.flink.streaming.api.functions.sink.filesystem.bucketassigners.DateTimeBucketAssigner;
import org.apache.flink.streaming.api.functions.sink.filesystem.bucketassigners.SimpleVersionedStringSerializer;
import org.apache.flink.streaming.api.functions.sink.filesystem.rollingpolicies.DefaultRollingPolicy;
import java.io.IOException;
import java.time.Duration;
import java.time.Instant;
import java.time.LocalDateTime;
import java.time.ZoneId;
import java.time.format.DateTimeFormatter;
import java.util.Arrays;
import java.util.UUID;
/**
 * 描述:flink集成FileSink,forRowFormat行模式
 *
 * @author 浅夏的猫
 * @version 1.0.0
 * @date 2024-02-07 16:11:50
 */
public class FileRowSinkStreaming {
    public static void main(String[] args) throws Exception {
        //=============1.分桶策略=========================================
        // 自定义分桶策略
        BucketAssigner<String, String> customBucketAssigner = new BucketAssigner<>() {
            @Override
            public String getBucketId(String element, Context context) {
                // 获取当前时间戳(以秒为单位)
                long timestamp = System.currentTimeMillis() / 1000;
                // 将时间戳转换为 LocalDateTime 对象
                LocalDateTime dateTime = LocalDateTime.ofInstant(Instant.ofEpochSecond(timestamp), ZoneId.systemDefault());
                // 定义日期时间格式
                DateTimeFormatter formatter = DateTimeFormatter.ofPattern("yyyy-MM-dd");
                // 格式化日期时间对象为指定格式的字符串
                return formatter.format(dateTime);
            }
            @Override
            public SimpleVersionedSerializer<String> getSerializer() {
                return SimpleVersionedStringSerializer.INSTANCE;
            }
        };
        // 默认基于时间的窗口分桶策略
//        BucketAssigner<String, String> customBucketAssigner = new DateTimeBucketAssigner<>("yyyy-MM-dd--HH");
        //=============2.滚动策略===============================================
        DefaultRollingPolicy<String, String> rollingPolicy = DefaultRollingPolicy.builder()
                //15分钟则会滚动
                .withRolloverInterval(Duration.ofMinutes(15))
                //从没接收延时5分钟之外的新纪录则滚动
                .withInactivityInterval(Duration.ofMinutes(5))
                //文件大小已经达到 1GB 则滚动
                .withMaxPartSize(MemorySize.ofMebiBytes(1024))
                .build();
        //================3.文件命名策略==================================
        OutputFileConfig outputFileConfig = OutputFileConfig.builder().withPartPrefix("Flink_").withPartSuffix(".dat").build();
        //================4.合并策略======================================
        FileCompactStrategy fileCompactStrategy = FileCompactStrategy.Builder.newBuilder().enableCompactionOnCheckpoint(1).setNumCompactThreads(1).build();
        //合并算法,3种
        //第1种:可以自定义两个文件直接的分割符,由构造方法传入
        ConcatFileCompactor fileCompactor = new ConcatFileCompactor();
        //第2种:直接复制一个文件的内容,到另一个文件,一次只能复制一个文件;
//        IdenticalFileCompactor fileCompactor = new IdenticalFileCompactor();
        //第3种:自定义内容比较多
//        RecordWiseFileCompactor.Reader.Factory<String> stringFactory = new RecordWiseFileCompactor.Reader.Factory<>() {
//            @Override
//            public RecordWiseFileCompactor.Reader<String> createFor(Path path) throws IOException {
//                //需自定义
//                return null;
//            }
//        };
//        RecordWiseFileCompactor fileCompactor = new RecordWiseFileCompactor(stringFactory);
        // 创建FileSink
        FileSink<String> fileSink = FileSink
                //指定文件目录与文件写入编码格式
                .forRowFormat(new Path("D:\\flink"), new SimpleStringEncoder<String>("UTF-8"))
                //设置合并策略
                .enableCompact(fileCompactStrategy, fileCompactor)
                //分桶策略,不设置采用默认的分桶策略DateTimeBucketAssigner,基于时间的分配器,每小时产生一个桶,即yyyy-mm-dd-hh
                .withBucketAssigner(customBucketAssigner)
                //指定文件前后缀输出
                .withOutputFileConfig(outputFileConfig)
                //默认滚动策略,每隔多久把临时文件合并一次
//                .withBucketCheckInterval(1000)
                //自定义滚动策略,三个条件满足任意一个都会滚动
                .withRollingPolicy(rollingPolicy).build();
        // 创建 执行环境
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        // 创建简单批模式数据源
        DataStreamSource<String> dataStreamSource = env.fromCollection(Arrays.asList("运维测试", "运维开发", "追风的少年"));
        // 把数据源的全部数据写入到文件,注意一旦开启文件合并,则必须设置uid,否则直接启动报错
        dataStreamSource.sinkTo(fileSink).uid("1");
        // 执行任务
        env.execute("FileRowSinkStreaming");
    }
}

10.3 自定义列模式的文件压缩算法

import org.apache.commons.compress.compressors.gzip.GzipCompressorOutputStream;
import org.apache.flink.api.common.serialization.BulkWriter;
import org.apache.flink.core.fs.FSDataOutputStream;
import java.io.IOException;
/**
 * 描述:自定义列模式的文件压缩算法
 *
 * @author 浅夏的猫
 * @version 1.0.0
 * @date 2024-02-08 01:20:31
 */
public class CustomBulkWriterFactory implements BulkWriter.Factory<String> {
    @Override
    public BulkWriter<String> create(FSDataOutputStream out) throws IOException {
        GzipCompressorOutputStream gzipOutput = new GzipCompressorOutputStream(out);
        return new BulkWriter<>() {
            @Override
            public void addElement(String element) throws IOException {
                gzipOutput.write(element.getBytes());
            }
            @Override
            public void flush() throws IOException {
                gzipOutput.flush();
            }
            //注意:此方法不能关闭Factory传入的流,这是框架完成的事!!!否则程序直接俄报错
            @Override
            public void finish() throws IOException {
//                gzipOutput.close();
            }
        };
    }
}

10.4 forBulkFormat列模式作业

import org.apache.flink.api.common.serialization.SimpleStringEncoder;
import org.apache.flink.configuration.MemorySize;
import org.apache.flink.connector.file.sink.FileSink;
import org.apache.flink.connector.file.sink.compactor.ConcatFileCompactor;
import org.apache.flink.connector.file.sink.compactor.FileCompactStrategy;
import org.apache.flink.connector.file.sink.compactor.IdenticalFileCompactor;
import org.apache.flink.core.fs.Path;
import org.apache.flink.core.io.SimpleVersionedSerializer;
import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.api.functions.sink.filesystem.BucketAssigner;
import org.apache.flink.streaming.api.functions.sink.filesystem.OutputFileConfig;
import org.apache.flink.streaming.api.functions.sink.filesystem.PartFileInfo;
import org.apache.flink.streaming.api.functions.sink.filesystem.bucketassigners.SimpleVersionedStringSerializer;
import org.apache.flink.streaming.api.functions.sink.filesystem.rollingpolicies.CheckpointRollingPolicy;
import org.apache.flink.streaming.api.functions.sink.filesystem.rollingpolicies.DefaultRollingPolicy;
import java.io.IOException;
import java.time.Duration;
import java.time.Instant;
import java.time.LocalDateTime;
import java.time.ZoneId;
import java.time.format.DateTimeFormatter;
import java.util.Arrays;
/**
 * 描述:flink集成FileSink,forBulkFormat列模式
 *
 * @author 浅夏的猫
 * @version 1.0.0
 * @date 2024-02-07 16:11:50
 */
public class FileBulkSinkStreaming {
    public static void main(String[] args) throws Exception {
        //=============1.分桶策略=========================================
        // 自定义分桶策略
        BucketAssigner<String, String> customBucketAssigner = new BucketAssigner<>() {
            @Override
            public String getBucketId(String element, Context context) {
                // 获取当前时间戳(以秒为单位)
                long timestamp = System.currentTimeMillis() / 1000;
                // 将时间戳转换为 LocalDateTime 对象
                LocalDateTime dateTime = LocalDateTime.ofInstant(Instant.ofEpochSecond(timestamp), ZoneId.systemDefault());
                // 定义日期时间格式
                DateTimeFormatter formatter = DateTimeFormatter.ofPattern("yyyy-MM-dd");
                // 格式化日期时间对象为指定格式的字符串
                return formatter.format(dateTime);
            }
            @Override
            public SimpleVersionedSerializer<String> getSerializer() {
                return SimpleVersionedStringSerializer.INSTANCE;
            }
        };
        // 默认基于时间的窗口分桶策略
//        BucketAssigner<String, String> customBucketAssigner = new DateTimeBucketAssigner<>("yyyy-MM-dd--HH");
        //=============2.滚动策略===============================================
        CheckpointRollingPolicy<String,String> rollingPolicy = new CheckpointRollingPolicy<>() {
            @Override
            public boolean shouldRollOnEvent(PartFileInfo<String> partFileInfo, String s) throws IOException {
                return false;
            }
            @Override
            public boolean shouldRollOnProcessingTime(PartFileInfo<String> partFileInfo, long l) throws IOException {
                return false;
            }
        };
        //================3.文件命名策略==================================
        OutputFileConfig outputFileConfig = OutputFileConfig.builder().withPartPrefix("Flink_").withPartSuffix(".dat").build();
        //================4.合并策略======================================
        FileCompactStrategy fileCompactStrategy = FileCompactStrategy.Builder.newBuilder().enableCompactionOnCheckpoint(1).setNumCompactThreads(1).build();
        //合并算法,3种
        //第1种:可以自定义两个文件直接的分割符,由构造方法传入
        ConcatFileCompactor fileCompactor = new ConcatFileCompactor();
        //第2种:直接复制一个文件的内容,到另一个文件,一次只能复制一个文件;
//        IdenticalFileCompactor fileCompactor = new IdenticalFileCompactor();
        //第3种:自定义内容比较多
//        RecordWiseFileCompactor.Reader.Factory<String> stringFactory = new RecordWiseFileCompactor.Reader.Factory<>() {
//            @Override
//            public RecordWiseFileCompactor.Reader<String> createFor(Path path) throws IOException {
//                //需自定义
//                return null;
//            }
//        };
//        RecordWiseFileCompactor fileCompactor = new RecordWiseFileCompactor(stringFactory);
        // 创建FileSink
        FileSink<String> fileSink = FileSink
                //指定文件目录与文件写入编码格式
                .forBulkFormat(new Path("D:\\flink"), new CustomBulkWriterFactory())
                //设置合并策略
                .enableCompact(fileCompactStrategy, fileCompactor)
                //分桶策略,不设置采用默认的分桶策略DateTimeBucketAssigner,基于时间的分配器,每小时产生一个桶,即yyyy-mm-dd-hh
                .withBucketAssigner(customBucketAssigner)
                //指定文件前后缀输出
                .withOutputFileConfig(outputFileConfig)
                //默认滚动策略,每隔多久把临时文件合并一次
//                .withBucketCheckInterval(1000)
                //自定义滚动策略,三个条件满足任意一个都会滚动
                .withRollingPolicy(rollingPolicy)
                .build();
        // 创建 执行环境
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        // 创建简单批模式数据源
        DataStreamSource<String> dataStreamSource = env.fromCollection(Arrays.asList("运维测试", "运维开发", "追风的少年"));
        // 把数据源的全部数据写入到文件,注意一旦开启文件合并,则必须设置uid,否则直接启动报错
        dataStreamSource.sinkTo(fileSink).uid("2");
        // 执行任务
        env.execute("FileRowSinkStreaming");
    }
}

11 总结

FileSink 是 Apache Flink 中实现数据写入文件的核心组件,通过详细介绍其基本概念、实现细节和示例代码,让大家对其有了更全面的认识。期望这些信息能帮助大家更好地理解和应用 FileSink,在实际项目中实现数据写入文件的需求,欢迎评论交流!!!

相关实践学习
基于Hologres轻松玩转一站式实时仓库
本场景介绍如何利用阿里云MaxCompute、实时计算Flink和交互式分析服务Hologres开发离线、实时数据融合分析的数据大屏应用。
Linux入门到精通
本套课程是从入门开始的Linux学习课程,适合初学者阅读。由浅入深案例丰富,通俗易懂。主要涉及基础的系统操作以及工作中常用的各种服务软件的应用、部署和优化。即使是零基础的学员,只要能够坚持把所有章节都学完,也一定会受益匪浅。
相关文章
|
1月前
|
存储 分布式计算 API
大数据-107 Flink 基本概述 适用场景 框架特点 核心组成 生态发展 处理模型 组件架构
大数据-107 Flink 基本概述 适用场景 框架特点 核心组成 生态发展 处理模型 组件架构
79 0
|
6天前
|
SQL 机器学习/深度学习 大数据
【赵渝强老师】Flink生态圈组件
Flink 是一个大数据计算引擎,支持批处理和流处理。其优势在于流处理引擎 DataStream。Flink 的生态圈分为三层:平台部署层、核心引擎层和 API&Library 层。平台部署层支持多种部署模式,核心引擎层负责任务执行,API&Library 层提供丰富的开发工具。
|
29天前
|
运维 数据处理 Apache
数据实时计算产品对比测评报告:阿里云实时计算Flink版
数据实时计算产品对比测评报告:阿里云实时计算Flink版
|
1月前
|
分布式计算 监控 大数据
大数据-148 Apache Kudu 从 Flink 下沉数据到 Kudu
大数据-148 Apache Kudu 从 Flink 下沉数据到 Kudu
55 1
|
1月前
|
消息中间件 监控 Java
大数据-109 Flink 体系结构 运行架构 ResourceManager JobManager 组件关系与原理剖析
大数据-109 Flink 体系结构 运行架构 ResourceManager JobManager 组件关系与原理剖析
62 1
|
1月前
|
消息中间件 Java Kafka
Flink-04 Flink Java 3分钟上手 FlinkKafkaConsumer消费Kafka数据 进行计算SingleOutputStreamOperatorDataStreamSource
Flink-04 Flink Java 3分钟上手 FlinkKafkaConsumer消费Kafka数据 进行计算SingleOutputStreamOperatorDataStreamSource
44 1
|
1月前
|
SQL 分布式计算 大数据
大数据-108 Flink 快速应用案例 重回Hello WordCount!方案1批数据 方案2流数据(一)
大数据-108 Flink 快速应用案例 重回Hello WordCount!方案1批数据 方案2流数据(一)
44 0
|
1月前
|
大数据 流计算
大数据-108 Flink 快速应用案例 重回Hello WordCount!方案1批数据 方案2流数据(二)
大数据-108 Flink 快速应用案例 重回Hello WordCount!方案1批数据 方案2流数据(二)
45 0
|
2月前
|
SQL 安全 数据处理
揭秘数据脱敏神器:Flink SQL的神秘力量,守护你的数据宝藏!
【9月更文挑战第7天】在大数据时代,数据管理和处理尤为重要,尤其在保障数据安全与隐私方面。本文探讨如何利用Flink SQL实现数据脱敏,为实时数据处理提供有效的隐私保护方案。数据脱敏涉及在处理、存储或传输前对敏感数据进行加密、遮蔽或替换,以遵守数据保护法规(如GDPR)。Flink SQL通过内置函数和表达式支持这一过程。
73 2
|
2月前
|
运维 数据处理 数据安全/隐私保护
阿里云实时计算Flink版测评报告
该测评报告详细介绍了阿里云实时计算Flink版在用户行为分析与标签画像中的应用实践,展示了其毫秒级的数据处理能力和高效的开发流程。报告还全面评测了该服务在稳定性、性能、开发运维及安全性方面的卓越表现,并对比自建Flink集群的优势。最后,报告评估了其成本效益,强调了其灵活扩展性和高投资回报率,适合各类实时数据处理需求。