开发者社区> santihyt> 正文
阿里云
为了无法计算的价值
打开APP
阿里云APP内打开

基于 Serverless 工作流高并发批量解冻 OSS 文件

简介:
+关注继续查看

前言

Serverless 工作流(Serverless Workflow,原函数工作流)是一个用来协调多个分布式任务执行的全托管 Serverless 云服务,致力于简化开发和运行业务流程所需要的任务协调、状态管理以及错误处理等繁琐工作,让用户聚焦业务逻辑开发。用户可以用顺序、分支、并行等方式来编排分布式任务,服务会按照设定好的顺序可靠地协调任务执行,跟踪每个任务的状态转换,并在必要时执行用户定义的重试逻辑,以确保工作流顺利完成。

函数计算 FC 是事件驱动的全托管计算服务,无需采购服务器和运维,只需上传代码就能实现高可用、高并发、弹性伸缩的后端服务。

本文介绍如何使用 Serverless 工作流来高并发大批量的解冻 oss 归档存储文件,使用工作流的优势:

  • 高并发
  • 错误自动重试,高可靠性
  • 每个步骤都有输入输出记录以及实时执行状态,高可观测性

应用中心一键部署

  1. 前往 Serverless 工作流应用中心 创建并部署 OSS Restore 应用。
    image
  2. 部署完成后执行流程 {stackName}-mainRestoreFlow-{suffix},输入:

    {
      "endpoint": "",
      "bucketName": "",
      "prefix": "",
      "marker": "",
      "maxKeys": 100,
      "pollInterval": 10,
      "workers": 10,
      "groupSize": 1
    }

    执行参数说明:

    • endpoint
      OSS endpoint
    • bucketName:
      OSS bucket 名称
    • prefix:
      OSS bucket 文件过滤前缀
    • maxKeys:
      OSS ListObjects 返回的最大文件数量 (这里不要超过 foreach 的并发限制,默认是 100)
    • pollInterval:
      轮询 OSS 文件 restore 状态的时间间隔(秒)
    • groupSize:
      一个任务步骤(对应一个函数)批量处理的文件数
    • workers:
      多个文件在一个函数中处理时,设定的处理线程池大小
    • marker:
      OSS ListObjects 的开始 marker

    详细信息可参考 ListObjects API

流程执行完毕后,会自动解冻所有符合过滤条件的归档存储文件。

原理

解冻文件主流程

主流程 mainRestoreFlow 主要做以下事情:

  1. 任务步骤 listArchiveFiles 调用 FC 函数 listArchiveFilesmarker 开始执行 ListObjects 列举指定 maxKeys 数量,前缀为 prefix 的 OSS 文件。
  2. 调用子流程 restoreFlow 对获取的文件列表进行解冻,并返回下一次列举的起点 maker
  3. 选择步骤 checkEnd 检测是否已完成列举 bucket 中所有的文件,若没有,跳转到 listArchiveFiles 中从下一个 marker 开始继续执行,否则结束。

主流程定义,请参考 流程定义语言

version: v1
type: flow
steps:
- type: pass
  name: init
  outputMappings:
    - source: $input.endpoint
      target: endpoint
    - source: $input.bucketName
      target: bucketName
    - source: $input.prefix
      target: prefix
    - source: $input.maxKeys
      target: maxKeys
    - source: $input.pollInterval
      target: pollInterval
    - source: $input.marker
      target: marker
    - source: $input.workers
      target: workers
    - source: $input.groupSize
      target: groupSize

# List archive files from marker
- type: task
  name: listArchiveFiles
  resourceArn: acs:fc:::services/<serviceName>/functions/listArchiveFiles
  outputMappings:
    - source: $local.bucketName
      target: bucketName
    - source: $local.filesGroup
      target: filesGroup
    - source: $local.marker
      target: marker
    - source: $local.end
      target: end
    - source: $local.empty
      target: empty
    - source: $local.archiveFilesCount
      target: archiveFilesCount

# Check whether file restore success, if not, retry check
- type: choice
  name: checkEmpty
  choices:
    # If list archive files not empty
    - condition: $.empty == "false"
      steps:
        # Invoke subflow restore to restore listed files
        - type: task
          name: invokeRestoreFlow
          resourceArn: acs:fnf:::flow/<restoreFlow>
          pattern: sync
          serviceParams:
            Input: $
  default:
    goto: checkEnd

# Check list files ended
- type: choice
  name: checkEnd
  choices:
    - condition: $.end == "true"
      goto: success
  default:
    goto: listArchiveFiles

# success
- type: pass
  name: success

解冻文件子流程

子流程 restoreFlow 主要做以下事情:

  1. 并行循环步骤 foreach,并行的对主流程中传入的文件列表生成多个解冻任务。
  2. 解冻任务 restoreTask 调用 FC 函数 restore 对文件列表进行解冻。
  3. 所有解冻任务提交完成后,循环执行:

    • 等待步骤 Wait 等待一段时间
    • 任务步骤 GetJobStatus 获取所有文件的解冻状态
    • 选择步骤 CheckJobComplete 判断是否全部解冻完成,若完成执行结束,否则跳转到 wait 步骤继续循环检测。

子流程定义如下:

version: v1
type: flow
steps:
  - type: foreach
    name: retoreForeach
    iterationMapping:
      collection: $.filesGroup
      item: files
    steps:
      # Invoke restore function
      - type: task
        name: restoreTask
        resourceArn: !Ref OSSRestoreService/restoreFunction
        retry:
          - errors:
              - FC.ResourceThrottled
              - FC.ResourceExhausted
              - FC.InternalServerError
              - FC.Unknown
              - FnF.TaskTimeout
            intervalSeconds: 1
            maxAttempts: 10
            multiplier: 1.5
            maxIntervalSeconds: 10

  # Wait interval for poll files restore status
  - type: wait
    name: Wait
    duration: $.pollInterval

  # Get file restore status
  - type: task
    name: GetJobStatus
    resourceArn: !Ref OSSRestoreService/restoreStatusFunction

  # Check whether file restore success, if not, retry check
  - type: choice
    name: CheckJobComplete
    inputMappings:
      - target: status
        source: $local.status
    choices:
      - condition: $.status == "success"
        goto: JobSucceeded
      - condition: $.status == "running"
        goto: Wait

  - type: succeed
    name: JobSucceeded
    outputMappings:
      - target: filesGroup
        source: $input.filesGroup
      - target: marker
        source: $input.marker

以上应用代码可参考 oss-restore

总结

使用 Serverless 工作流能极大减少重复的流程控制开发,让错误重试更加容易,以及提供实时的执行进度查询。这里提供的解冻 oss 应用,完全可以照搬到其它的需求上,以实现高并发高可靠性的应用。

欢迎加钉钉群 23116481 交流:
image

版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。

相关文章
oss 追加上传支持excel文件使用吗
oss 追加上传支持excel文件使用吗
0 0
使用OSS上传下载文件
阿里云对象存储OSS(Object Storage Service)是一款海量、安全、低成本、高可靠的云存储服务,可以提供多种用途,最简单的使用方式是做文件存储,用来上传下载文件啊
0 0
iOS开发:日志记录文件及压缩上传OSS
发现APP上传本地日志文件相当的好用,根据之前研究学习的对这一模块做了一些更具体的优化处理。从标题可以看出,实现这一功能分以下几个步骤: 1、日志记录本地文件 2、日志文件压缩[xx.zip] 3、压缩之后的文件上传 4、压缩文件删除
0 0
阿里云oss同步文件到本地,添加宝塔定时任务自动同步
阿里云oss同步文件到本地,添加宝塔定时任务自动同步
0 0
OSS restful API 调用 get,遍历目录中的文件,python发http request示例
发送get 请求,遍历目录下的所有文件,代码中*** 的部分改成实际内容,这个API说明文档在bucket操作里面。rest请求主要问题在拼header时authorization可能会有问题,注意计算签名时的入参。#tested env: python version v3.9.6 #author: Fred #2022-1-11 import hmac import hashlib impo
0 0
HDFS 海量文件归档到 OSS | 学习笔记
快速学习 HDFS 海量文件归档到 OSS。
0 0
高效迁移 HDFS 海量文件到 OSS | 学习笔记
快速学习高效迁移 HDFS 海量文件到 OSS。
0 0
通过ffplay播放OSS上的mp3文件会断开
抽丝剥茧定位一个疑难问题。
0 0
数据湖实操讲解【数据迁移】第三讲:如何将 HDFS 海量文件归档到OSS
数据湖 JindoFS+OSS 实操干货 36讲 每周二16点准时直播!扫文章底部二维码入钉群,线上准时观看~ Github链接: https://github.com/aliyun/alibabacloud-jindofs/blob/master/docs/jindo_distcp/jindo_distcp_overview.md
0 0
数据湖实操讲解【数据迁移】第一讲:高效迁移 HDFS 海量文件到 OSS
数据湖 JindoFS+OSS 实操干货 36讲 每周二16点准时直播!扫文章底部二维码入钉群,线上准时观看~
0 0
+关注
文章
问答
来源圈子
更多
专注 Serverless、微服务、函数计算、Serverless 应用引擎、云原生技术
+ 订阅
文章排行榜
最热
最新
相关电子书
更多
百问百答-OSS (上)
立即下载
百问百答-OSS (下)
立即下载
阿里云 JindoFS+OSS 数据上云实战
立即下载