SpringBoot 集成 Apache Camel FTP 实现文件同步

简介: SpringBoot 集成 Apache Camel FTP 实现文件同步

1. 依赖

<dependency>
    <groupId>org.apache.camel.springboot</groupId>
    <artifactId>camel-spring-boot-starter</artifactId>
    <version>3.4.2</version>
</dependency>
<dependency>
    <groupId>org.apache.camel</groupId>
    <artifactId>camel-ftp</artifactId>
    <version>3.4.2</version>
</dependency>
版本保持一致,可用最新版。

2. 配置文件

camel:
  springboot:
    main-run-controller: true
management:
  endpoint:
    camelroutes:
      enabled: true
      read-only: true
# delay=5s 间隔多少 ms 轮询一次
# readLock 读锁
# noop 如果 noop = true,Camel 也将设置 idempotent = true 以避免一遍又一遍地使用相同的文件
# recursive 是否遍历文件夹处理文件
ftp:
  server:
    info: ftp://ftpuser@172.16.113.128:21?password=123456&delay=5s&readLock=rename&ftpClient.controlEncoding=UTF-8&noop=true&recursive=true
  local:
    dir: file:D:/temp/ftp/

2.1 配置文档#

名称 说明 默认值
username 登录用户名
password 登录密码
binary 指定文件传输模式,BINARY 或 ASCII false(ASCII)
charset 指定文件读取的编码格式,写出时也可配置
disconnect 使用后是否立即断开连接 false
passiveMode 是否启用被动模式 false
separator 设置路径分隔符,可选:UNIX,Windows,Auto UNIX
delete 是否在文件处理完成后删除源文件 false
noop 如果 noop = true,Camel 也将设置 idempotent = true 以避免一遍又一遍地使用相同的文件 false
recursive 是否遍历文件夹处理文件 false
download 是否下载文件,如果将此选项设置为 false,则消息正文将为 null
filter 设置过滤器
idempotent 选择使用幂等消费者 EIP 模式让 Camel 跳过已处理的文件。如果 noop = true,则将启用幂等,以避免重复使用相同的文件。
delay 间隔多少 ms 轮询一次
reconnectDelay 延迟 n 毫秒,然后再执行重新连接尝试

3. 编写一个Component

继承RouteBuilder,实现configure方法。

设置数据源、目标,并且可以根据需要额外设置 过滤器Predicate和处理器Processor。

package com.example.goodsync.ftpdemo;
import org.apache.camel.LoggingLevel;
import org.apache.camel.builder.RouteBuilder;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.beans.factory.annotation.Value;
import org.springframework.stereotype.Component;
/**
 * @className: DownloadRouteDemo
 * @description: DownloadRouteDemo
 */
@Component
public class DownloadRouteDemo extends RouteBuilder {
    private static Logger logger = LoggerFactory.getLogger(DownloadRouteDemo.class);
    @Value("${ftp.server.info}")
    private String ftpServer;
    @Value("${ftp.local.dir}")
    private String downloadLocation;
    @Autowired
    LocationFileProcessor locationFileProcessor;
    @Autowired
    FtpDownloadFileFilter ftpDownloadFileFilter;
    @Override
    public void configure() throws Exception {
        from(ftpServer)    //数据源
                .filter(ftpDownloadFileFilter) //过滤器
                .to(downloadLocation) //目标
                .log(LoggingLevel.INFO, logger, "Downloaded file ${file:name} complete.")
                .process(locationFileProcessor); //处理器
    }
}

4. 过滤器设置

过滤器设置,只处理.txt或者.json文件。上述代码中 filter 必须再to 前面才能生效。

package com.example.goodsync.ftpdemo;
import org.apache.camel.Exchange;
import org.apache.camel.Predicate;
import org.apache.camel.component.file.GenericFileMessage;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
import org.springframework.stereotype.Component;
import java.io.RandomAccessFile;
/**
 * @className: FtpDownloadFileFilter
 * @description: FtpDownloadFileFilter
 */
@Component
public class FtpDownloadFileFilter implements Predicate {
    private static Logger logger = LoggerFactory.getLogger( FtpDownloadFileFilter.class );
    @Override
    public boolean matches(Exchange exchange) {
        boolean bMatches = true;
        GenericFileMessage<RandomAccessFile> inFileMessage = (GenericFileMessage<RandomAccessFile>) exchange.getIn();
        String fileName = inFileMessage.getGenericFile().getFileName();
        bMatches = fileName.endsWith(".txt") || fileName.endsWith(".json");
        logger.info("fileName:"+fileName+"matches:"+bMatches);
        return bMatches;
    }
}

5. 处理器

代码如下:

package com.example.goodsync.ftpdemo;
import org.apache.camel.Exchange;
import org.apache.camel.Processor;
import org.apache.camel.component.file.GenericFileMessage;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.beans.factory.annotation.Value;
import org.springframework.stereotype.Component;
import java.io.RandomAccessFile;
/**
 * @className: LocationFileProcessor
 * @description: LocationFileProcessor
 */
@Component
public class LocationFileProcessor implements Processor {
    private static Logger logger = LoggerFactory.getLogger( LocationFileProcessor.class );
    @Value("${ftp.local.dir}")
    private String fileDir;
    @Autowired
    OrderService orderService;
    @Override
    public void process(Exchange exchange) throws Exception {
        GenericFileMessage<RandomAccessFile> inFileMessage = (GenericFileMessage<RandomAccessFile>) exchange.getIn();
        //文件名
        String fileName = inFileMessage.getGenericFile().getFileName();
        //文件的绝对路径
        logger.info(fileDir + fileName);
        //解析入库等操作
        orderService.process(fileDir + fileName);
    }
}

6. 定义一个OrderService

package com.example.goodsync.ftpdemo;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
import org.springframework.stereotype.Service;
/**
 * @className: OrderService
 * @description: OrderService
 */
@Service
public class OrderService {
    private static Logger logger = LoggerFactory.getLogger( OrderService.class );
    public void process(String path){
        logger.info("path:"+path);
    }
}

7. 问题

7.1 更多的文档信息移步官方文档#

https://camel.apache.org/components/3.14.x/ftp-component.html#_endpoint_query_option_transferLoggingVerbose

7.2 出现“550 create directory operation failed”错误#

原因是SELinux(Security-Enhanced Linux----是美国国家安全局对于强制访问控制的实现, 是Linux 上最杰出的新安全子系统.)安装机制搞的鬼.只要disable SELinux就可以了.

解决办法: 关闭SELinux

# vim /etc/selinux/config

将 SELINUX=XXX -->XXX 代表级别 改为 SELINUX=disabled

重启系统

7.3 文件名出现乱码#

地址后面拼接 ftpClient.controlEncoding:配置 ftpClient 编码格式。 比如ftpClient.controlEncoding=UTF-8

相关文章
|
2月前
|
Java Maven Spring
SpringBoot 系列之 Failed to execute goal org.apache.maven.plugins:maven-resources-plugin:3.2.0:resource
这篇文章描述了在使用Maven构建Spring Boot项目时遇到的`maven-resources-plugin`插件版本问题导致的编译失败,并提供了通过修改插件版本至3.1.0来解决这个问题的方法。
SpringBoot 系列之 Failed to execute goal org.apache.maven.plugins:maven-resources-plugin:3.2.0:resource
|
2月前
|
消息中间件 Java Kafka
|
3月前
|
关系型数据库 API Apache
Flink CDC:基于 Apache Flink 的流式数据集成框架
本文整理自阿里云 Flink SQL 团队研发工程师于喜千(yux)在 SECon 全球软件工程技术大会中数据集成专场沙龙的分享。
17760 11
Flink CDC:基于 Apache Flink 的流式数据集成框架
|
2月前
|
Java Spring Apache
Spring Boot邂逅Apache Wicket:一次意想不到的完美邂逅,竟让Web开发变得如此简单?
【8月更文挑战第31天】Apache Wicket与Spring Boot的集成提供了近乎无缝的开发体验。Wicket以其简洁的API和强大的组件化设计著称,而Spring Boot则以开箱即用的便捷性赢得开发者青睐。本文将指导你如何在Spring Boot项目中引入Wicket,通过简单的步骤完成集成配置。首先,创建一个新的Spring Boot项目并在`pom.xml`中添加Wicket相关依赖。
58 0
|
2月前
|
消息中间件 Kafka 数据处理
实时数据流处理:Dask Streams 与 Apache Kafka 集成
【8月更文第29天】在现代数据处理领域,实时数据流处理已经成为不可或缺的一部分。随着物联网设备、社交媒体和其他实时数据源的普及,处理这些高吞吐量的数据流成为了一项挑战。Apache Kafka 作为一种高吞吐量的消息队列服务,被广泛应用于实时数据流处理场景中。Dask Streams 是 Dask 库的一个子模块,它为 Python 开发者提供了一个易于使用的实时数据流处理框架。本文将介绍如何将 Dask Streams 与 Apache Kafka 结合使用,以实现高效的数据流处理。
28 0
|
3月前
|
消息中间件 Java Kafka
Spring Boot与Apache Kafka Streams的集成
Spring Boot与Apache Kafka Streams的集成
|
3月前
|
存储 NoSQL Java
实现Spring Boot与Apache Cassandra的数据存储整合
实现Spring Boot与Apache Cassandra的数据存储整合
|
3月前
|
安全 Java Apache
如何安装与使用Spring Boot 2.2.x、Spring Framework 5.2.x与Apache Shiro 1.7进行高效开发
【7月更文第1天】在现代Java Web开发领域,Spring Boot以其简化配置、快速开发的特点备受青睐。结合Spring Framework的成熟与Apache Shiro的强大权限控制能力,我们可以轻松构建安全且高效的Web应用。本篇文章将指导你如何安装并使用Spring Boot 2.2.x、Spring Framework 5.2.x以及Apache Shiro 1.7来构建一个具备基础权限管理功能的项目。
66 0
|
3月前
|
消息中间件 Java Kafka
Spring Boot与Apache Kafka集成的深度指南
Spring Boot与Apache Kafka集成的深度指南
|
3月前
|
Java Apache Spring
整合Spring Boot和Apache Solr进行全文搜索
整合Spring Boot和Apache Solr进行全文搜索

推荐镜像

更多
下一篇
无影云桌面