OssImport系列之四——最佳实践

本文涉及的产品
对象存储 OSS,20GB 3个月
日志服务 SLS,月写入数据量 50GB 1个月
文件存储 NAS,50GB 3个月
简介: 介绍数据迁移工具OssImport在典型场景下的应用、典型需求的实现方法。

相关文章:OssImport系列之一——架构

本文主要介绍,OssImport在典型场景下应用,典型需求的实现。

单机与分布式

OssImport有 单机模式分布式模式 两种部署方式。对于小于 30TB 的小规模数据数据迁移,单机模式即可完成。对于大规模的数据迁移,请使用分布式模式。

分时限流

Worker有限流功能,通过修改配置文件sys.properties的配置项workerMaxThroughput(KB/s)实现,该配项不是动态生效的,修改后需要重启服务才能生效。分布式部署情况下,需要修改每个Worker的$OSS_IMPORT_WORK_DIR/conf下的sys.properties,然后重启服务。

分时限流,可通过 crontab 定时修改 sys.properties,然后重启服务生效。

添加Worker

Worker列表请在提交任务前确定,目前不支持动态添加。

只校验不迁移数据

OssImport支持只校验数据不迁移数据,任务配置文件 job.cfglocal_job.cfg 的配置项 jobType=audit 而不是 import,其它配置与数据迁相同。

从第三方存储服务无缝切换到OSS

以下步骤可以完成从其它存储到OSS的无缝切换:

  • 全量迁移数据,此时业务仍在第三方存储上,记下数据迁移的开始时间 T1,注意该时间为 Unix时间戳,即自1970年1月1日UTC零点以来的秒数,通过命令 date +%s 获取;
  • 打开OSS镜像回源功能,数据迁移完成后,请在 OSS控制台 设置服务 Bucket镜像回源功能,回源地址为第三方存储;
  • 读写切换到OSS,此时 T1 前的数据从OSS读取, T1 后的数据利用镜像回源从第三方服务读取,新数据完全写入OSS;
  • 增量数据迁移,增量数据迁移任务的配置文件( job.cfglocal_job.cfg )的配置项 importSince=T1 ,增量数据迁移完成的时间为 T2
  • 删除第三方存储, T2 后,您业务的所有的读写都在OSS上,第三方存储只是一份历史数据,您可以根据需要决定保留或删除。OssImport负责数据的迁移和校验,不会删除任何数据。

注意

  • 第四步增量数据迁移,并非数据迁移的增量模式

数据迁移增量模式

数据迁移增量模式,是指数据迁移任务启动后,先进行一次全量迁移,每隔一段时间自动的进行增量数据迁移。第一次数据迁移任务为全量迁移,提交任务后立即启动;后面的增量数据迁移每隔一个周期启动一次。增量模式有两个配置项:

  • job.cfg 中的 isIncremental ,是否打开增量迁移模式, true 表示打开增量模式, false 表示关闭增量模式,默认关闭。
  • job.cfg 中的 incrementalModeInterval,增量模式下的同步间隔,即增量数据迁移的间隔周期,单位秒。isIncremental=true 时有效。可配置的最小值为 900秒 ,不建议配置成小于 3600秒 的值,会浪费大量请求,造成额外的系统开销。

使用场景:

  • 数据备份;
  • 数据同步。

指定迁移文件的过滤条件

迁移文件的过滤条件,即只迁移满足特定的条件的文件。OssImport支持指定 前缀最后修改时间

  • job.cfg 中的 srcPrefix,指定迁移文件的前缀,默认为空。如果srcType=local,填写本地目录,需要完整路径,以 / 进行分割并且以 / 结尾,如 c:/example//data/example/srcTypeossqiniubosks3youpais3,则为待同步object的前缀,不包括bucket名称,如data/to/oss/迁移所有文件srcPrefix设置为空
  • job.cfg 中的 importSince,迁移文件的最后修改时间,整形,单位秒。如果文件的最后修改(LastModified Time)在 importSince 之前(包含)将被迁移,如果文件的最后修改(LastModified Time)在 importSince 之后将不被迁移;importSinceUnix时间戳,即自1970年1月1日UTC零点以来的秒数,通过命令date +%s获取;默认值0,表示迁移全部数据。增量模式下只对第一次全量迁移有效,非增量模式对整个迁移任务有效。

本地数据迁移到OSS

本地数据迁移到OSS的工具选择:

  • 对于小于 30TB 的数据从本地文件,或可以挂载到本地文件系统的情况,推荐使用 OssUtil,该工具简单方便,OssUtil支持 文件级别 的增量上传,通过 -u/--update--snapshot-path 选项实现,详细说明请使用 ossutil help cp 查看。
  • 大规模数据迁移,请使用分布式版本的OssImport

提示

  • 本地数据的增量迁移时,文件系统某些操作不会修改文件的 最后修改时间 ,比如 Windowscpmv , Linuxmvrsync-t-a 选项,这些操作的数据修改都不会被检测到,也不会同步到OSS, 请知悉

OSS之间的数据迁移

什么时候使用OssImport:

  • 不同区域间的OSS数据同步,添加使用 跨区域复制 功能,该功能请在控制台上设置;
  • 由于政策或安全原因,没有没有开通 跨区域复制 的区域,可以使用OssImport迁移或备份数据;
  • 同一区域内,不同账号、不同Bucket的数据迁移;
  • OSS直接的数据迁移,推荐使用阿里云内网,即使用ECS、OSS的域名带 internal

OSS直接数据迁移收费:

  • 如果使用了带 internal 的域名,不会产生流量费用,只有请求和存储费用;
  • 如果没有带 internal 的域名,会产生流量费用,具体请参看计费 。

不推荐使用场景:

  • 开通了 跨区域复制 服务的区域之间的数据同步;
  • 利用增量模式在OSS之间同步文件修改操作,OssImport只能同步文件的修改操作(put/apppend/multipart),不能同步读取和删除操作,数据同步的及时性没有具体的 SLA 保证, 请慎重选择;推荐使用 上传回调事件通知

ECS与流量

对于从云端(非本地)迁移到OSS,且带宽资源不是很充足的用户,建议够买按量付费的ECS进行迁移,购买地址。ECS配置:

  • 付费方式选择按量付费;
  • 地域选择OSS对应的区域;
  • 带宽峰值选100M;
  • 系统Linux/Windows随意;
  • 其他全部选择最低配置。

在配置迁移服务时,将 targetDomain 设为带 internal 的内网域名;如果源端也是OSS,将 srcDomain 也设为带 internal 的内网域名,可以省掉从OSS源端下载的流量费,仅收取OSS访问次数的费用。

HTTP数据迁移OSS

HTTP数据迁移任务需要配置的参数:

  • job.cfg 中的 srcType 配置为 srcType=http ,请注意字符大小写;
  • job.cfg 中的 httpListFilePath,指定的HTTP地址列表文件, 请使用绝对路径指定 ,如 c:/example/http.list/root/example/http.list 。一个完整的HTTP链接是 127.0.0.1/aa/bb.jpg,不同的切分方法最后会导致上传到oss的路径会不一样:
      http://127.0.0.1/aa/   bb.jpg      # 第一行
      http://127.0.0.1/      aa/bb.jpg   # 第二行
    
    AI 代码解读
    第一行的文件导入到OSS后的的文件名为 destPrefix + bb.jpg,第二行的文件名为 destPrefix + aa/bb.jpghttpPrefixColumn 指定域名列,默认第一列,如上述的 127.0.0.1/aa/127.0.0.1/relativePathColumn 指定在OSS中文件名,如上述的 bb.jpgaa/bb.jpg
    如果文件中有多列,如下
      http://127.0.0.1/aa/   bb/cc dd/ee  ff.jpg
    
    AI 代码解读
    配置应该如下: httpPrefixColumn=1relativePathColumn=4
  • job.cfg 中的 destAccessKeydestSecretKeydestDomaindestBucket 等OSS的配置。

HTTP数据迁移子任务切分参数:

  • taskObjectCountLimit ,每个 Task 最大的文件数,默认10000;
  • taskObjectSizeLimit , 每个 Task 最大数据量, HTTP数据迁移时该参数无效 ,原因是 Master 切分 Task 时,如果每个HTTP文件都是源上获取文件大小,每个文件都有一次HTTP请求开销,会影响子任务分配的效率,进而影响子任务的并发执行,降低迁移的效率;
  • 域名 , httpListFilePath 指定的文件中第一列,连续相同的域名任务按照 taskObjectCountLimit 的限制切分,连续不同的域名切分成不同的 Task ,这种做法的目的是为了更好的复用连接。比如:
      http://mingdi-hz.oss-cn-hangzhou.aliyuncs.com/  import/test1.txt
      http://mingdi-hz.oss-cn-hangzhou.aliyuncs.com/  import/test2.txt
      http://mingdi-bj.oss-cn-beijing.aliyuncs.com/  import/test3.txt
      http://mingdi-bj.oss-cn-beijing.aliyuncs.com/  import/test4.txt
    
    AI 代码解读
    taskObjectCountLimit 大于2的情况下,会切分成 2Task , 而
      http://mingdi-hz.oss-cn-hangzhou.aliyuncs.com/  import/test1.txt
      http://mingdi-bj.oss-cn-beijing.aliyuncs.com/  import/test3.txt
      http://mingdi-hz.oss-cn-hangzhou.aliyuncs.com/  import/test2.txt
      http://mingdi-bj.oss-cn-beijing.aliyuncs.com/  import/test4.txt
    
    AI 代码解读
    会切分成 4Task所以 httpListFilePath 指定的HTTP地址列表文件,请先按照域名排序

网络流量与参数配置

以下参数的配置与网络流量有关:

  • sys.properties 中的 workerTaskThreadNum ,表示 Worker 并发执行的任务数量,如果网络较差、并发大,会出现大量超时错误,此时应该降低并发量,修改该配置项,并重启服务;
  • sys.properties 中的 workerMaxThroughput(KB/s) , 表示 Worker 流量的上限,如果业务需要限流,比如源端流控控制、网络限制等情况。该参数的值应该小于机器的最大网络流量,并根据业务需要评估。
  • job.cfg 中的 taskObjectCountLimit ,每个 Task 最大的文件数,默认10000。该参数会影响 Task 的数量,数量过小无法实现有效的并发。
  • job.cfg 中的 taskObjectSizeLimit , 每个 Task 最大数据量,默认1GB。该参数会影响 Task 的数量,数量过小无法实现有效的并发。

提示

  • 配置文件参数请尽量在启动迁移前确定
  • sys.properties 中的参数修改后,重启迁移服务器后才能生效;
  • job.cfg 任务提交后,任务的配置参数无法更改。

相关文章:OssImport系列之一——架构

目录
打赏
0
1
0
1
3059
分享
相关文章
开源项目OpenIM单机部署生产环境异常处理及数据恢复
在生产环境中,通常会采用集群部署来保证组件和服务的高可用性。然而,在资源有限的情况下,一些开发者可能会选择在生产环境中进行单机部署(使用源码部署或docker容器)。本文将介绍在单机部署环境下如何进行数据备份、异常恢复,以及潜在的风险。 一、mongo定时数据备份​ OpenIM核心数据存储在MongoDB中,因此备份MongoDB数据就能恢复大部分数据。在容器启动之前,设置mongo数据备份目录和定时任务。 数据备份​ OpenIM服务的核心数据存储在MongoDB中,因此备份MongoDB数据就能恢复大部分数据。以下是备份的步骤: 修改备份目录 .env文件中修改MONGO_BACK
38 10
Serverless痛点解决问题之将 WordPress 工程部署到函数计算中如何解决
Serverless痛点解决问题之将 WordPress 工程部署到函数计算中如何解决
71 1
Serverless痛点解决问题之将传统 LAMP/LNMP 项目直接 FaaS 化如何解决
Serverless痛点解决问题之将传统 LAMP/LNMP 项目直接 FaaS 化如何解决
65 0
云效产品使用常见问题之用ARM架构的机器意义不知道如何解决
云效作为一款全面覆盖研发全生命周期管理的云端效能平台,致力于帮助企业实现高效协同、敏捷研发和持续交付。本合集收集整理了用户在使用云效过程中遇到的常见问题,问题涉及项目创建与管理、需求规划与迭代、代码托管与版本控制、自动化测试、持续集成与发布等方面。
数据治理一-Atlas2.1编译踩坑之路
数据治理一-Atlas2.1编译踩坑之路
497 0
【实测】用土话让你明白如何做测试平台的持续部署和集成 - 3【上传gitlab后自动部署到服务器】
【实测】用土话让你明白如何做测试平台的持续部署和集成 - 3【上传gitlab后自动部署到服务器】
【实测】用土话让你明白如何做测试平台的持续部署和集成 - 3【上传gitlab后自动部署到服务器】
迁云工具介绍及最佳实践 | 学习笔记
快速学习迁云工具介绍及最佳实践,云服务器ECS(Elastic Computing Service)是每个阿里云用户上云的“第一步”。
迁云工具介绍及最佳实践 | 学习笔记
再出王牌:阿里云 Jindo DistCp 全面开放使用,成为阿里云数据迁移利器
此前 Jindo DistCp 仅限于E-MapReduce产品内部使用,此次全方位面向整个阿里云OSS/HDFS用户放开,并提供官方维护和支持技术,欢迎广大用户集成和使用。
再出王牌:阿里云 Jindo DistCp 全面开放使用,成为阿里云数据迁移利器

云存储

+关注
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等