【最佳实践】OSS开源工具ossutil-大文件断点续传

本文涉及的产品
对象存储 OSS,20GB 3个月
云备份 Cloud Backup,100GB 3个月
阿里云盘企业版 CDE,企业版用户数5人 500GB空间
简介: # OSS断点续传 ## 应用场景 当调用OSS的PutObject来上传较大的文件时,如果上传过程中出现错误,比如网络错误,那么此次上传失败。重试时必须从文件起始位置上传。 针对这种情况,OSS提供了分片上传(Multipart Upload)来达到断点续传的效果。

经常碰到内部同学或者外部客户问ossutil关于大文件断点续传的问题。本文简单描述下原理并举例说明。

用户可从这里获取ossutil。

官网:https://help.aliyun.com/document_detail/50452.html
代码:https://github.com/aliyun/ossutil

OSS断点续传

应用场景

当调用OSS的PutObject来上传较大的文件时,如果上传过程中出现错误,比如网络错误,那么此次上传失败。重试时必须从文件起始位置上传。

针对这种情况,OSS提供了分片上传(Multipart Upload)来达到断点续传的效果。分片上传就是将要上传的文件分成多个数据块(OSS里又称之为Part)来分别上传,上传完成之后再调用OSS的接口将这些Part组合成一个Object。

因此,OSS断点续传适用于以下场合。

  • 恶劣的网络环境:如手机端,当出现上传失败的时候,可以对失败的Part进行独立的重试,而不需要重新上传其他的Part。
  • 断点续传:中途暂停之后,可以从上次上传完成的Part的位置继续上传。

详细信息,请参考https://help.aliyun.com/document_detail/31850.html

实现原理

在分片上传的过程中,已经上传的Part的生命周期是永久的,因此很容易可以实现断点续传的功能。

如果分片上传意外失败,可以在重启的时候调用以下接口。

有了上传成功的Part列表,就可以从最后一块成功上传的Part开始继续上传,从而达到断点续传的效果。暂停和恢复上传实现原理也是一样的。

ossutil大文件断点续传

ossutil上传文件时,如果文件大小超过--bigfile-threshold选项指定的大小(默认为100M),ossutil会认为该文件为大文件,并自动使用断点续传策略。

续传策略

  • 上传至OSS

    • ossutil会对大文件自动分片,进行multipart分片上传;
    • 如果上传失败,会在本地.ossutil_checkpoint目录记录失败信息,下次重传时会读取.ossutil_checkpoint目录中的信息进行断点续传,当上传成功时会删除.ossutil_checkpoint目录。
  • 从OSS下载

    • ossutil会自动对大文件分片下载,所有分片下载后组装成一个文件;
    • 如果下载失败,同样会在.ossutil_checkpoint目录记录失败信息,重试成功后删除.ossutil_checkpoint目录。
  • 在OSS间拷贝

    • ossutil会自动对大文件分片,使用Upload Part Copy方式拷贝;
    • 同样会在.ossutil_checkpoint目录记录失败信息,重试成功后会删除.ossutil_checkpoint目录。

实现原理

断点续传的重点在于需要本地记录已经上传了多少,还需要上传多少。因此ossutil在本地默认.ossutil_checkpoint目录下创建文件记录本次上传分片信息,并用LevelDB记录哪些分片已经上传成功。

比如,在.ossutil_checkpoint目录下创建如下文件并记录分片信息。具体内容可参考后面的例子。

$ ls .ossutil_checkpoint/Users/tester/ws/test.file.200M---oss:/tempb3/test.file.200M.cp
.ossutil_checkpoint/Users/tester/ws/test.file.200M---oss:/tempb3/test.file.200M.cp
AI 代码解读

例子

上传并中断

本文给出一个上传的例子,下载和拷贝操作方法类似。

# 200M文件上传

$ ls -lh test.file.200M
-rw-r--r--  1 zubo.yzb  staff   200M  6 11 15:34 test.file.200M

# 上传18%时Ctrl+C掉

$ ossutil cp test.file.200M oss://tempb3
Total num: 1, size: 209,715,200. Dealed num: 0, OK size: 38,456,400, Progress: 18%^C⏎
AI 代码解读

碎片信息

ls命令加-a选项可参考分片信息。

$ ossutil ls oss://tempb3 -a
Object Number is: 0
InitiatedTime                     UploadID                            ObjectName
2018-06-11 15:34:57 +0800 CST     15E03889BFF34823AF47A6F65A8E7B11    oss://tempb3/test.file.200M
UploadID Number is: 1
0.116129(s) elapsed
AI 代码解读

也可以登录控制台查看分片(碎片)信息。

image.png

Checkpoint文件

默认在当前目录下会创建.ossutil_checkpoint目录,并将断点信息写入文件,文件名如上所述。

文件数据定义如下。

type uploadCheckpoint struct {
    Magic     string   // magic
    MD5       string   // cp内容的MD5
    FilePath  string   // 本地文件
    FileStat  cpStat   // 文件状态
    ObjectKey string   // key
    UploadID  string   // upload id
    Parts     []cpPart // 本地文件的全部分片
}

type cpStat struct {
    Size         int64     // 文件大小
    LastModified time.Time // 本地文件最后修改时间
    MD5          string    // 本地文件MD5
}

type cpPart struct {
    Chunk       FileChunk  // 分片
    Part        UploadPart // 上传完成的分片
    IsCompleted bool       // upload是否完成
}
AI 代码解读
// FileChunk 文件片定义
type FileChunk struct {
    Number int   // 块序号
    Offset int64 // 块在文件中的偏移量
    Size   int64 // 块大小
}
// UploadPart 上传/拷贝的分片
type UploadPart struct {
    XMLName    xml.Name `xml:"Part"`
    PartNumber int      `xml:"PartNumber"` // Part编号
    ETag       string   `xml:"ETag"`       // ETag缓存码
}
AI 代码解读

文件内容如下。

{
    "FilePath": "test.file.200M",
    "FileStat": {
        "LastModified": "2018-06-11T15:34:18+08:00",
        "MD5": "",
        "Size": 209715200
    },
    "MD5": "3Rv7Fx0gbfPLWKOa4OjMew==",
    "Magic": "FE8BB4EA-B593-4FAC-AD7A-2459A36E2E62",
    "ObjectKey": "test.file.200M",
    "Parts": [
        {
            "Chunk": {
                "Number": 1,              =====> 第1个分片
                "Offset": 0,
                "Size": 2563760           =====> 每个分片size为2563760=2503KB
            },
            "IsCompleted": true,          =====> 已经成功上传
            "Part": {
                "ETag": "\"EC704FC6D8822194EEC4E68769739BE3\"",     =====>已经成功上传的分片有ETag
                "PartNumber": 1,          =====> 第1个分片
                "XMLName": {
                    "Local": "",
                    "Space": ""
                }
            }
        },
。。。
        {
            "Chunk": {
                "Number": 15,             =====> 第15个分片
                "Offset": 35892640,
                "Size": 2563760
            },
            "IsCompleted": true,          =====> 已经成功上传
            "Part": {
                "ETag": "\"EC704FC6D8822194EEC4E68769739BE3\"",
                "PartNumber": 15,
                "XMLName": {
                    "Local": "",
                    "Space": ""
                }
            }
        },
        {
            "Chunk": {
                "Number": 16,             =====> 第16个分片
                "Offset": 38456400,
                "Size": 2563760
            },
            "IsCompleted": false,         =====> 未上传
            "Part": {
                "ETag": "",
                "PartNumber": 0,
                "XMLName": {
                    "Local": "",
                    "Space": ""
                }
            }
        },
。。。
        {
            "Chunk": {
                "Number": 82,              =====>82个分片
                "Offset": 207664560,
                "Size": 2050640
            },
            "IsCompleted": false,
            "Part": {
                "ETag": "",
                "PartNumber": 0,
                "XMLName": {
                    "Local": "",
                    "Space": ""
                }
            }
        }
    ],
    "UploadID": "15E03889BFF34823AF47A6F65A8E7B11"
}
AI 代码解读

断点续传

再次上传直接从断点开始继续,可以观察到progress直接从18%开始,直到结束。

$ ossutil cp test.file.200M oss://tempb3 -f
Succeed: Total num: 1, size: 209,715,200. OK num: 1(upload 1 files).
11.461563(s) elapsed
AI 代码解读

总结

  • 小文件不会断点续传,失败后下次直接重传;
  • 对于上传至OSS或在OSS间拷贝,如果失败,OSS上可能会产生Uncomplete的UploadId,但只要最终成功,就不会存在Uncomplete的UploadId(会被组装成object);
  • 上传到oss时,如果.ossutil_checkpoint目录包含在file_url中,.ossutil_checkpoint目录不会被上传到oss。该目录路径可以用--checkpoint-dir选项指定,如果指定了该选项,请确保指定的目录可以被删除。
  • 如果使用rm命令删除了Uncomplete的Multipart Upload,可能会造成下次cp命令断点续传失败(报错:NoSuchUpload),这种时候如果想要重新上传整个文件,请删除相应的checkpoint文件。

    $ ossutil cp test.file.200M oss://tempb3
    Total num: 1, size: 209,715,200. Dealed num: 0, Transfer size: 0. When error happens.
    Error: oss: service returned error: StatusCode=404, ErrorCode=NoSuchUpload, ErrorMessage=The 
    specified upload does not exist. The upload ID may be invalid, or the upload may have been 
    aborted or completed., RequestId=5B1E2B177953A44A418E6FD5, File=test.file.200M!
    Will remove checkpoint dir '.ossutil_checkpoint' automatically. Please try again.⏎
    AI 代码解读
  • 分片上传不直接等于断点续传,但是基于分片上传可以实现断点续传的效果。
  • 如果上传的文件是不变的,分片的方法也是不变的,那么只需要在本地记录文件已经成功上传了哪些分片,后面重新上传的时候,跳过已经成功上传的分片,就能达到断点续传的效果。

Reference

相关实践学习
借助OSS搭建在线教育视频课程分享网站
本教程介绍如何基于云服务器ECS和对象存储OSS,搭建一个在线教育视频课程分享网站。
目录
打赏
0
0
0
1
3038
分享
相关文章
【有奖实践】轻量消息队列(原 MNS)订阅 OSS 事件实时处理文件变动
当你需要对对象存储 OSS(Object Storage Service)中的文件变动进行实时处理、同步、监听、业务触发、日志记录等操作时,你可以通过设置 OSS 的事件通知规则,自定义关注的文件,并将 OSS 事件推送到轻量消息队列(原 MNS)的队列或主题中,开发者的服务即可及时收到相关通知,并通过消费消息进行后续的业务处理。
对象存储使用ossutil进行删除存储桶操作
本教程介绍如何使用阿里云控制台的Cloud shell执行操作,通过wget下载ossutil工具,解压并进入工具目录,使用通用命令进行OSS存储桶删除操作。具体步骤包括下载、解压、进入目录和执行删除命令。参考文档:<https://help.aliyun.com/zh/oss/developer-reference/rm>。
56 1
开源对象存储服务(MinIO),正在备受欢迎!
本文介绍了MinIO,一个高性能、开源的对象存储服务器,兼容Amazon S3 API,适合存储大量非结构化数据。文章详细讲解了MinIO在Java中的使用方法,包括添加依赖、初始化客户端、基本操作(创建桶、上传/下载/删除对象)和高级功能(设置桶策略、使用预签名URL),并提供了Spring Boot集成MinIO的示例。
493 4
监控与追踪:如何利用Spring Cloud Sleuth和Netflix OSS工具进行微服务调试
监控与追踪:如何利用Spring Cloud Sleuth和Netflix OSS工具进行微服务调试
92 1
视觉智能开放平台产品使用合集之上传素材文件不在同一地域的OSS,怎么上传多张图片
视觉智能开放平台是指提供一系列基于视觉识别技术的API和服务的平台,这些服务通常包括图像识别、人脸识别、物体检测、文字识别、场景理解等。企业或开发者可以通过调用这些API,快速将视觉智能功能集成到自己的应用或服务中,而无需从零开始研发相关算法和技术。以下是一些常见的视觉智能开放平台产品及其应用场景的概览。
77 2
函数计算产品使用问题之OSS触发器是否可以只设置文件前缀
函数计算产品作为一种事件驱动的全托管计算服务,让用户能够专注于业务逻辑的编写,而无需关心底层服务器的管理与运维。你可以有效地利用函数计算产品来支撑各类应用场景,从简单的数据处理到复杂的业务逻辑,实现快速、高效、低成本的云上部署与运维。以下是一些关于使用函数计算产品的合集和要点,帮助你更好地理解和应用这一服务。
DataWorks产品使用合集之如何使用Python和阿里云SDK读取OSS中的文件
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
DataWorks产品使用合集之在使用MaxCompute进行数据集成同步到OSS时,出现表名和OSS文件名不一致且多了后缀,该如何处理
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
函数计算产品使用问题之如何配合OSS实现接口收到的图片或文件直接存入OSS
函数计算产品作为一种事件驱动的全托管计算服务,让用户能够专注于业务逻辑的编写,而无需关心底层服务器的管理与运维。你可以有效地利用函数计算产品来支撑各类应用场景,从简单的数据处理到复杂的业务逻辑,实现快速、高效、低成本的云上部署与运维。以下是一些关于使用函数计算产品的合集和要点,帮助你更好地理解和应用这一服务。
DataWorks操作报错合集之使用OSS读取CSV文件到ODPS时遇到报错,一般是什么导致的
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。

云存储

+关注

相关产品

  • 对象存储