【最佳实践】OSS开源工具ossutil-大文件断点续传

本文涉及的产品
对象存储 OSS,20GB 3个月
文件存储 NAS,50GB 3个月
对象存储 OSS,恶意文件检测 1000次 1年
简介: # OSS断点续传 ## 应用场景 当调用OSS的PutObject来上传较大的文件时,如果上传过程中出现错误,比如网络错误,那么此次上传失败。重试时必须从文件起始位置上传。 针对这种情况,OSS提供了分片上传(Multipart Upload)来达到断点续传的效果。

经常碰到内部同学或者外部客户问ossutil关于大文件断点续传的问题。本文简单描述下原理并举例说明。

用户可从这里获取ossutil。

官网:https://help.aliyun.com/document_detail/50452.html
代码:https://github.com/aliyun/ossutil

OSS断点续传

应用场景

当调用OSS的PutObject来上传较大的文件时,如果上传过程中出现错误,比如网络错误,那么此次上传失败。重试时必须从文件起始位置上传。

针对这种情况,OSS提供了分片上传(Multipart Upload)来达到断点续传的效果。分片上传就是将要上传的文件分成多个数据块(OSS里又称之为Part)来分别上传,上传完成之后再调用OSS的接口将这些Part组合成一个Object。

因此,OSS断点续传适用于以下场合。

  • 恶劣的网络环境:如手机端,当出现上传失败的时候,可以对失败的Part进行独立的重试,而不需要重新上传其他的Part。
  • 断点续传:中途暂停之后,可以从上次上传完成的Part的位置继续上传。

详细信息,请参考https://help.aliyun.com/document_detail/31850.html

实现原理

在分片上传的过程中,已经上传的Part的生命周期是永久的,因此很容易可以实现断点续传的功能。

如果分片上传意外失败,可以在重启的时候调用以下接口。

有了上传成功的Part列表,就可以从最后一块成功上传的Part开始继续上传,从而达到断点续传的效果。暂停和恢复上传实现原理也是一样的。

ossutil大文件断点续传

ossutil上传文件时,如果文件大小超过--bigfile-threshold选项指定的大小(默认为100M),ossutil会认为该文件为大文件,并自动使用断点续传策略。

续传策略

  • 上传至OSS

    • ossutil会对大文件自动分片,进行multipart分片上传;
    • 如果上传失败,会在本地.ossutil_checkpoint目录记录失败信息,下次重传时会读取.ossutil_checkpoint目录中的信息进行断点续传,当上传成功时会删除.ossutil_checkpoint目录。
  • 从OSS下载

    • ossutil会自动对大文件分片下载,所有分片下载后组装成一个文件;
    • 如果下载失败,同样会在.ossutil_checkpoint目录记录失败信息,重试成功后删除.ossutil_checkpoint目录。
  • 在OSS间拷贝

    • ossutil会自动对大文件分片,使用Upload Part Copy方式拷贝;
    • 同样会在.ossutil_checkpoint目录记录失败信息,重试成功后会删除.ossutil_checkpoint目录。

实现原理

断点续传的重点在于需要本地记录已经上传了多少,还需要上传多少。因此ossutil在本地默认.ossutil_checkpoint目录下创建文件记录本次上传分片信息,并用LevelDB记录哪些分片已经上传成功。

比如,在.ossutil_checkpoint目录下创建如下文件并记录分片信息。具体内容可参考后面的例子。

$ ls .ossutil_checkpoint/Users/tester/ws/test.file.200M---oss:/tempb3/test.file.200M.cp
.ossutil_checkpoint/Users/tester/ws/test.file.200M---oss:/tempb3/test.file.200M.cp

例子

上传并中断

本文给出一个上传的例子,下载和拷贝操作方法类似。

# 200M文件上传

$ ls -lh test.file.200M
-rw-r--r--  1 zubo.yzb  staff   200M  6 11 15:34 test.file.200M

# 上传18%时Ctrl+C掉

$ ossutil cp test.file.200M oss://tempb3
Total num: 1, size: 209,715,200. Dealed num: 0, OK size: 38,456,400, Progress: 18%^C⏎

碎片信息

ls命令加-a选项可参考分片信息。

$ ossutil ls oss://tempb3 -a
Object Number is: 0
InitiatedTime                     UploadID                            ObjectName
2018-06-11 15:34:57 +0800 CST     15E03889BFF34823AF47A6F65A8E7B11    oss://tempb3/test.file.200M
UploadID Number is: 1
0.116129(s) elapsed

也可以登录控制台查看分片(碎片)信息。

image.png

Checkpoint文件

默认在当前目录下会创建.ossutil_checkpoint目录,并将断点信息写入文件,文件名如上所述。

文件数据定义如下。

type uploadCheckpoint struct {
    Magic     string   // magic
    MD5       string   // cp内容的MD5
    FilePath  string   // 本地文件
    FileStat  cpStat   // 文件状态
    ObjectKey string   // key
    UploadID  string   // upload id
    Parts     []cpPart // 本地文件的全部分片
}

type cpStat struct {
    Size         int64     // 文件大小
    LastModified time.Time // 本地文件最后修改时间
    MD5          string    // 本地文件MD5
}

type cpPart struct {
    Chunk       FileChunk  // 分片
    Part        UploadPart // 上传完成的分片
    IsCompleted bool       // upload是否完成
}
// FileChunk 文件片定义
type FileChunk struct {
    Number int   // 块序号
    Offset int64 // 块在文件中的偏移量
    Size   int64 // 块大小
}
// UploadPart 上传/拷贝的分片
type UploadPart struct {
    XMLName    xml.Name `xml:"Part"`
    PartNumber int      `xml:"PartNumber"` // Part编号
    ETag       string   `xml:"ETag"`       // ETag缓存码
}

文件内容如下。

{
    "FilePath": "test.file.200M",
    "FileStat": {
        "LastModified": "2018-06-11T15:34:18+08:00",
        "MD5": "",
        "Size": 209715200
    },
    "MD5": "3Rv7Fx0gbfPLWKOa4OjMew==",
    "Magic": "FE8BB4EA-B593-4FAC-AD7A-2459A36E2E62",
    "ObjectKey": "test.file.200M",
    "Parts": [
        {
            "Chunk": {
                "Number": 1,              =====> 第1个分片
                "Offset": 0,
                "Size": 2563760           =====> 每个分片size为2563760=2503KB
            },
            "IsCompleted": true,          =====> 已经成功上传
            "Part": {
                "ETag": "\"EC704FC6D8822194EEC4E68769739BE3\"",     =====>已经成功上传的分片有ETag
                "PartNumber": 1,          =====> 第1个分片
                "XMLName": {
                    "Local": "",
                    "Space": ""
                }
            }
        },
。。。
        {
            "Chunk": {
                "Number": 15,             =====> 第15个分片
                "Offset": 35892640,
                "Size": 2563760
            },
            "IsCompleted": true,          =====> 已经成功上传
            "Part": {
                "ETag": "\"EC704FC6D8822194EEC4E68769739BE3\"",
                "PartNumber": 15,
                "XMLName": {
                    "Local": "",
                    "Space": ""
                }
            }
        },
        {
            "Chunk": {
                "Number": 16,             =====> 第16个分片
                "Offset": 38456400,
                "Size": 2563760
            },
            "IsCompleted": false,         =====> 未上传
            "Part": {
                "ETag": "",
                "PartNumber": 0,
                "XMLName": {
                    "Local": "",
                    "Space": ""
                }
            }
        },
。。。
        {
            "Chunk": {
                "Number": 82,              =====>82个分片
                "Offset": 207664560,
                "Size": 2050640
            },
            "IsCompleted": false,
            "Part": {
                "ETag": "",
                "PartNumber": 0,
                "XMLName": {
                    "Local": "",
                    "Space": ""
                }
            }
        }
    ],
    "UploadID": "15E03889BFF34823AF47A6F65A8E7B11"
}

断点续传

再次上传直接从断点开始继续,可以观察到progress直接从18%开始,直到结束。

$ ossutil cp test.file.200M oss://tempb3 -f
Succeed: Total num: 1, size: 209,715,200. OK num: 1(upload 1 files).
11.461563(s) elapsed

总结

  • 小文件不会断点续传,失败后下次直接重传;
  • 对于上传至OSS或在OSS间拷贝,如果失败,OSS上可能会产生Uncomplete的UploadId,但只要最终成功,就不会存在Uncomplete的UploadId(会被组装成object);
  • 上传到oss时,如果.ossutil_checkpoint目录包含在file_url中,.ossutil_checkpoint目录不会被上传到oss。该目录路径可以用--checkpoint-dir选项指定,如果指定了该选项,请确保指定的目录可以被删除。
  • 如果使用rm命令删除了Uncomplete的Multipart Upload,可能会造成下次cp命令断点续传失败(报错:NoSuchUpload),这种时候如果想要重新上传整个文件,请删除相应的checkpoint文件。

    $ ossutil cp test.file.200M oss://tempb3
    Total num: 1, size: 209,715,200. Dealed num: 0, Transfer size: 0. When error happens.
    Error: oss: service returned error: StatusCode=404, ErrorCode=NoSuchUpload, ErrorMessage=The 
    specified upload does not exist. The upload ID may be invalid, or the upload may have been 
    aborted or completed., RequestId=5B1E2B177953A44A418E6FD5, File=test.file.200M!
    Will remove checkpoint dir '.ossutil_checkpoint' automatically. Please try again.⏎
  • 分片上传不直接等于断点续传,但是基于分片上传可以实现断点续传的效果。
  • 如果上传的文件是不变的,分片的方法也是不变的,那么只需要在本地记录文件已经成功上传了哪些分片,后面重新上传的时候,跳过已经成功上传的分片,就能达到断点续传的效果。

Reference

相关实践学习
借助OSS搭建在线教育视频课程分享网站
本教程介绍如何基于云服务器ECS和对象存储OSS,搭建一个在线教育视频课程分享网站。
目录
相关文章
|
2月前
|
监控 Java 对象存储
监控与追踪:如何利用Spring Cloud Sleuth和Netflix OSS工具进行微服务调试
监控与追踪:如何利用Spring Cloud Sleuth和Netflix OSS工具进行微服务调试
49 1
|
4月前
|
文字识别 算法 API
视觉智能开放平台产品使用合集之上传素材文件不在同一地域的OSS,怎么上传多张图片
视觉智能开放平台是指提供一系列基于视觉识别技术的API和服务的平台,这些服务通常包括图像识别、人脸识别、物体检测、文字识别、场景理解等。企业或开发者可以通过调用这些API,快速将视觉智能功能集成到自己的应用或服务中,而无需从零开始研发相关算法和技术。以下是一些常见的视觉智能开放平台产品及其应用场景的概览。
48 1
|
4月前
|
存储 运维 Serverless
函数计算产品使用问题之OSS触发器是否可以只设置文件前缀
函数计算产品作为一种事件驱动的全托管计算服务,让用户能够专注于业务逻辑的编写,而无需关心底层服务器的管理与运维。你可以有效地利用函数计算产品来支撑各类应用场景,从简单的数据处理到复杂的业务逻辑,实现快速、高效、低成本的云上部署与运维。以下是一些关于使用函数计算产品的合集和要点,帮助你更好地理解和应用这一服务。
|
5月前
|
消息中间件 分布式计算 DataWorks
DataWorks产品使用合集之如何使用Python和阿里云SDK读取OSS中的文件
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
5月前
|
分布式计算 DataWorks 调度
DataWorks产品使用合集之在使用MaxCompute进行数据集成同步到OSS时,出现表名和OSS文件名不一致且多了后缀,该如何处理
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
5月前
|
运维 Serverless 对象存储
函数计算产品使用问题之如何配合OSS实现接口收到的图片或文件直接存入OSS
函数计算产品作为一种事件驱动的全托管计算服务,让用户能够专注于业务逻辑的编写,而无需关心底层服务器的管理与运维。你可以有效地利用函数计算产品来支撑各类应用场景,从简单的数据处理到复杂的业务逻辑,实现快速、高效、低成本的云上部署与运维。以下是一些关于使用函数计算产品的合集和要点,帮助你更好地理解和应用这一服务。
|
6月前
|
SQL 分布式计算 大数据
MaxCompute产品使用问题之如果oss文件过大,如何在不调整oss源文件大小的情况下优化查询sql
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
5月前
|
分布式计算 DataWorks 数据管理
DataWorks操作报错合集之使用OSS读取CSV文件到ODPS时遇到报错,一般是什么导致的
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
|
6月前
|
文字识别 算法 API
视觉智能开放平台产品使用合集之在调用接口传入的图片URL参数,文件在本地或者非上海地域OSS链接,该怎么办
视觉智能开放平台是指提供一系列基于视觉识别技术的API和服务的平台,这些服务通常包括图像识别、人脸识别、物体检测、文字识别、场景理解等。企业或开发者可以通过调用这些API,快速将视觉智能功能集成到自己的应用或服务中,而无需从零开始研发相关算法和技术。以下是一些常见的视觉智能开放平台产品及其应用场景的概览。
|
6月前
|
Java 对象存储
阿里云OSS上传下载文件java
阿里云OSS上传下载文件java
388 0

相关产品

  • 对象存储