Fluid 1.0版发布,打通云原生高效数据使用的“最后一公里”

本文涉及的产品
数据管理 DMS,安全协同 3个实例 3个月
推荐场景:
学生管理系统数据库
容器服务 Serverless 版 ACK Serverless,952元额度 多规格
简介: Fluid 1.0版发布,提供云原生数据编排与加速,支持多级数据亲和性调度、自定义数据操作、数据流自动化,成为云原生AI场景最佳选择。

【阅读原文】戳:Fluid 1.0版发布,打通云原生高效数据使用的“最后一公里”

前言

 

得益于云原生技术在资源成本集约、部署运维便捷、算力弹性灵活方面的优势,越来越多企业和开发者将数据密集型应用,特别是AI和大数据领域应用,运行于云原生环境中。然而,云原生计算与存储分离架构虽然带来了资源经济性与扩容灵活性方面的优势,但也引入了数据访问延迟和带宽开销的问题。

 

在数据访问接口层面,Kubernetes只提供了传统数据访问接入层面的接口,即异构存储服务接入和管理标准接口(CSI,Container Storage Interface),对应用如何在容器集群中高效使用和灵活管理数据并没有定义。然而,这是很多数据密集型应用依赖这样的高层数据访问和管理接口,例如:在运行AI模型训练任务时,数据科学家需要能够管理数据集版本、控制访问权限、数据集预处理、动态数据源更新、加速异构数据读取等。但是,在Fluid开源项目诞生之前,Kubernetes开源生态社区中还没有这样的标准方案,这是云原生环境拥抱大数据与AI应用的一块重要拼图。

为了解决这些挑战,由来自学术界的南京大学,工业界的阿里云容器服务团队和Alluxio开源社区共同发起了Fluid开源项目,通过对“计算任务使用数据的过程”进行抽象,提出了云原生弹性数据抽象概念(如:DataSet),并作为“一等公民”在Kubernetes中实现。围绕弹性数据集Dataset,我们创建了云原生数据编排与加速系统Fluid,来实现Dataset管理(CRUD操作)、权限控制和访问加速等能力。在2021年4月份进入云原生计算基金会(CNCF)之后,经过36个月的不断研发迭代和生产环境验证,现在正式发布了其成熟稳定的v1.0大版本。

 

Website:

https://fluid-cloudnative.github.io/

 

GitHub

https://github.com/fluid-cloudnative/fluid

 

 

开源驱动发展,生产环境验证

 

Fluid的测试体系涵盖了每日进行的单元测试、功能测试、兼容性测试、安全测试以及实际应用场景测试。每次版本发布前,Fluid会在不同的Kubernetes版本中进行兼容性测试。

 

Fluid技术源自校企科研合作,项目正式开源后,吸引了来自不同行业,不同规模的社区用户将Fluid应用到更广泛的场景中:AIGC,大模型,大数据,混合云,云上开发机管理,自动驾驶数据仿真等。Fluid在支撑云上真实应用中不断迭代改进,并应用到生产环境中,系统的稳定性,性能和规模也变得成熟。

据公有云和私有云环境的统计,目前已有上千个Kubernetes集群在持续使用Fluid,其中在用户机器学习平台可以支持最大上万节点规模。每天在云原生环境中创建Fluid的用户主要来自互联网、科技、金融、电信、教育、自动驾驶与机器人、智能制造等领域。Fluid开源社区用户包括有小米、阿里巴巴集团、阿里云PAI机器学习平台、中国电信、微博、B站、360、乾象、作业帮、赢彻、虎牙、Oppo、云知声、云刻行、深势科技等。更多使用信息请查看注册用户列表。

部分用户也在Fluid开源社区分享了他们在不同场景的实践:

 

[1]小米机器学习平台:基于Fluid的高效Serverless混合云容器AI平台

 

[2]从资源弹性到数据弹性,乾象如何将云上量化研究效率提升40%?

 

[3]深势科技基于Serverless容器为科研人员打造高效的开发平台

 

[4]阿里集团基于Fluid+JindoCache加速大模型训练的实践

 

[5]作业帮检索服务基于Fluid的计算存储分离实践

 

 

Fluid 1.0新增核心功能速览

 

Fluid v1.0的发布,带来了以下几项核心功能:

 

1.可灵活配置的多级数据亲和性调度机制

 

Fluid的多级数据亲和性调度能力允许用户根据数据集缓存的位置信息对任务进行调度,而无需深入了解底层数据缓存的具体排布。Fluid通过以下方式实现这一调度策略:

 

a. 数据缓存本地性级别:Fluid根据数据缓存的本地性,即数据与计算任务的距离,将数据访问划分为不同的级别。这可能包括同一个节点(Node)、机架(Rack)、可用区(Availability Zone)、区域(Region)等不同级别。

 

b. 优先调度策略:Fluid优先将计算任务调度到数据缓存所在的节点,实现最佳的数据本地性。如果无法实现最佳本地性,Fluid会根据数据的传输距离,将任务调度到不同级别的节点上。

 

c. 灵活配置性:考虑到不同云服务提供商和对亲和性定义的各不相同,Fluid支持基于label进行自定义配置。用户可以根据具体的云环境和集群配置,调整调度策略,以适应不同的需求。

 

功能详见:[6]Fluid支持分层数据缓存本地性调度(Tiered Locality Scheduling)

 


 


2. 增加自定义数据操作DataProcess和触发策略的丰富

 

Fluid负责在Kubernetes中编排数据和使用数据的计算任务,不仅包括上文提到的空间上的编排,也包括时间上的编排。空间上的编排意味着计算任务会优先调度到有缓存数据和临近缓存的节点上,这样能够提升数据密集型应用的性能。而时间上的编排则允许同时提交数据操作和任务,但在任务执行之前,要进行一些数据迁移和预热操作,以确保任务在无人值守的情况下顺利运行,提升工程效率。

 

为此,在最新版本的 Fluid里提供一种新的数据操作类型DataProcess,为数据科学家提供自定义数据处理逻辑的抽象;并且在此基础针对所有的Fluid数据操作提供不同的触发机制,包括:once, onEvent, Cron。

以下例子为每2分钟运行一次数据预热。

 

apiVersion: data.fluid.io/v1alpha1
kind: DataLoad
metadata:
  name: cron-dataload
spec:
  dataset:
    name: demo
    namespace: default
  policy: Cron
  schedule: "*/2 * * * *" # Run every 2 min

 

3. 数据流DataFlow

 

进一步地,Fluid提供DataFlow数据流功能,允许用户通过Fluid提供的API定义自动化的数据处理流程: DataFlow支持Fluid的全部数据操作,包括缓存预热(DataLoad),数据迁移(DataMigrate),数据备份(DataBackup)等面向运维侧人员的自动化数据操作和面向数据科学家的数据处理(DataProcess)相结合,实现简单的数据操作。

以下图为例,整个的顺序是:

a.将需要消费的数据从云上低速存储(例如:OSS、HDFS)迁移到高速存储(例如:JuiceFS,GPFS)

b.启动AI模型训练

c.AI模型训练完成后将数据迁移回低速存储

 


 


注:DataFlow数据流仅支持串联多个数据操作,根据定义的先后顺序一个一个执行。不支持多步骤并行执行、循环执行、按条件选择性执行等高级语义,如果用户有明确此类需求,推荐使用Argo Workflow或者Tekton。

 

4. 通过Python SDK使用Fluid

 

在实践中,我们发现数据科学家更倾向于应该用代码(Python)而不是 YAML 来定义。为此Fluid提供更高层次的Python 接口来简化数据集的自动化操作和数据流的编写,下面是上面流程的Python实现:

 

flow = dataset.migrate(path="/data/", \
                     migrate_direction=constants.DATA_MIGRATE_DIRECTION_FROM) \
                     .load("/data/1.txt") \
                     .process(processor=create_processor(train)) \
                     .migrate(path="/data/", \
                     migrate_direction=constants.DATA_MIGRATE_DIRECTION_TO) 
run = flow.run()

 

样例详见:[7]文末链接

 

5. 新增Vineyard对象缓存引擎支持

 

Fluid支持以插件的方式接入分布式缓存,目前已经支持Alluixo, JindoFS, JuiceFS等针对文件系统的分布式缓存引擎。在Fluid 1.0版本接入了分布式内存数据管理引擎Vineyard,结合了 Vineyard 的高效数据共享机制和 Fluid的数据任务编排能力,为数据科学家提供了以Python 作为操作接口的方式,让他们能以熟悉的方式高效地进行 Kubernetes 上的中间数据管理。

 


 


更多细节请查看:[8]Fluid携手Vineyard,打造Kubernetes上的高效中间数据管理

 

6. 更多其他更新

 

在生产环境使用开源软件,稳定,规模和安全一直是重中之重。因此这也是Fluid持续关注和加强的领域。

 

a. 服务于大规模Kubernetes场景

 

在大规模的Kubernetes生产环境中,Fluid的性能和扩展性已得到了很好验证。在真实的用户环境中,Fluid能够稳定地支持有超过一万个节点的集群。在每天24小时的运行周期内,Fluid负责处理超过2500个数据集的全生命周期管理和超过6000个通过Fluid挂载数据集访问数据的AI工作负载(总共约有12万个Pods)。

考虑到Fluid已被广泛地部署在几个大规模的生产级Kubernetes集群中,我们对Fluid的控制平面组件进行了压力测试。测试结果显示,Fluid的Webhook在3个副本的情况下能够以每秒125个请求(QPS)的速度处理Pods的调度请求,而Webhook处理请求的90%的延迟少于25毫秒。针对于Fluid的控制器,测试结果表明,每分钟能支持配置500个Fluid数据集以上的自定义资源。以上结果充分证明了Fluid可以满足规模化集群的使用场景。

 

b. FUSE挂载点自动恢复增强的生产可用

 

在大规模的模型训练和推理任务场景下,FUSE进程可能因为内存资源不足以及其他原因崩溃重启,造成业务容器内FUSE挂载点断联,出现数据访问异常并影响在线业务可用性。基于FUSE的存储客户端更容易发生这样的问题,一旦这些问题无法自动修复,则可能中断任务和服务,同时人工修复的复杂度和工作量也是巨大的。针对此问题,Fluid 1.0优化了自恢复机制,并且已经在多个规模化用户场景下上线。

 

c. 收敛Fluid组件的安全权限

 

在1.0版本中,为了实践“权限最小化”的原则,Fluid移除了不必要的RBAC资源访问和权限。

 

更多的更新可以查看:[9]文末链接

 

 

后续版本规划

 

帮助AI/大数据的用户在Kubernetes中更加高效、灵活、经济、安全地使用数据,这是Fluid开源项目的目标和愿景:

 

在1.0版本,Fluid进一步打破了数据和计算的壁垒,实现了用户可以从异构Kubernetes环境(包括runC和KataContainer)灵活使用异构数据源(对象存储,传统分布式存储,可编程的内存对象), 同时通过Alluxio,JuiceFS,JindoFS,Vineyard等多种分布式缓存引擎和数据亲和性调度提升应用访问数据的效率。

 

在未来版本中, Fluid会继续与Kubernetes云原生生态紧密结合,同时更加关注数据科学家的效率和体验,我们计划专注解决以下问题:

 

1.针对大模型推理场景的优化,面向多种场景提升大模型加载效率。

 

2.与Kubernetes调度器相结合,自适应地实现根据Kubernetes调度器的调度结果,选择合适的数据访问方式(CSI模式和sidecar模式的自动识别)。

 

3.除了面向运行环境,支持数据科学家在使用开发环境中更灵活地使用Fluid,例如:解决数据源变更带来的容器重新启动,易造成临时数据丢失方面的问题。

 

 

致谢

 

我们感谢所有为Fluid 1.0版本发布付出努力的开源项目贡献者!详细贡献内容和贡献者信息请参见[10]Fluid开源项目1.0版本release note

 

我们感谢Fluid开源社区用户给予的开源项目验证反馈和支持!Fluid开源社区用户公开信息登记列表请参见[11]文末链接

 

相关链接:

 

[1]小米机器学习平台:基于Fluid的高效Serverless混合云容器AI平台

https://www.infoq.cn/article/kco7hi5TcVE08ySwNIw7

 

[2]从资源弹性到数据弹性,乾象如何将云上量化研究效率提升40%?

https://www.infoq.cn/article/AwaZ5xmgwguT7PJkYU2Q

 

[3]深势科技基于 Serverless 容器为科研人员打造高效的开发平台

https://mp.weixin.qq.com/s/_LdITur1fZRzTAuyRZ9S5g

[4] 阿里集团基于Fluid+JindoCache加速大模型训练的实践

https://mp.weixin.qq.com/s/2Z-U7_oWYxzFh3_--EH8WA

 

[5]作业帮检索服务基于 Fluid 的计算存储分离实践

https://www.infoq.cn/article/W65RcTI8AUhmoHVLkzWo?utm_source=tuicool&utm_medium=referral

 

[6]Fluid支持分层数据缓存本地性调度(Tiered Locality Scheduling)

https://developer.aliyun.com/article/1382880

 

[7]https://github.com/fluid-cloudnative/fluid-client-python/blob/master/examples/02_ml_train_pipeline/pipeline.ipynb

 

[8]Fluid携手Vineyard,打造Kubernetes上的高效中间数据管理

https://mp.weixin.qq.com/s/oQcqBwWvuFck5mQcSBLRNQ

 

[9]https://github.com/fluid-cloudnative/fluid/releases/tag/v1.0.0

 

[10]Fluid开源项目1.0版本release

https://github.com/fluid-cloudnative/fluid/releases/tag/v1.0.0

 

[11]https://github.com/fluid-cloudnative/fluid/blob/master/ADOPTERS.md

 

欢迎扫码加入云原生AI套件客户钉钉交流群:


我们是阿里巴巴云计算和大数据技术幕后的核心技术输出者。

欢迎关注 “阿里云基础设施”同名微信微博知乎

获取关于我们的更多信息~


相关实践学习
容器服务Serverless版ACK Serverless 快速入门:在线魔方应用部署和监控
通过本实验,您将了解到容器服务Serverless版ACK Serverless 的基本产品能力,即可以实现快速部署一个在线魔方应用,并借助阿里云容器服务成熟的产品生态,实现在线应用的企业级监控,提升应用稳定性。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
相关文章
|
18天前
|
存储 SQL Cloud Native
云原生数据仓库AnalyticDB产品使用合集之热数据存储空间在什么地方查看
阿里云AnalyticDB提供了全面的数据导入、查询分析、数据管理、运维监控等功能,并通过扩展功能支持与AI平台集成、跨地域复制与联邦查询等高级应用场景,为企业构建实时、高效、可扩展的数据仓库解决方案。以下是对AnalyticDB产品使用合集的概述,包括数据导入、查询分析、数据管理、运维监控、扩展功能等方面。
|
18天前
|
Cloud Native 关系型数据库 MySQL
云原生数据仓库AnalyticDB产品使用合集之是否支持mysql_fdw 和clickhousedb_fdw外部数据包装器
阿里云AnalyticDB提供了全面的数据导入、查询分析、数据管理、运维监控等功能,并通过扩展功能支持与AI平台集成、跨地域复制与联邦查询等高级应用场景,为企业构建实时、高效、可扩展的数据仓库解决方案。以下是对AnalyticDB产品使用合集的概述,包括数据导入、查询分析、数据管理、运维监控、扩展功能等方面。
114 4
|
18天前
|
监控 Cloud Native 关系型数据库
云原生数据仓库AnalyticDB产品使用合集之如何更新、删除和导入AnalyticDBMySQL数据
阿里云AnalyticDB提供了全面的数据导入、查询分析、数据管理、运维监控等功能,并通过扩展功能支持与AI平台集成、跨地域复制与联邦查询等高级应用场景,为企业构建实时、高效、可扩展的数据仓库解决方案。以下是对AnalyticDB产品使用合集的概述,包括数据导入、查询分析、数据管理、运维监控、扩展功能等方面。
|
18天前
|
运维 Cloud Native 关系型数据库
云原生数据仓库AnalyticDB产品使用合集之一次性最多能查询多少条数据
阿里云AnalyticDB提供了全面的数据导入、查询分析、数据管理、运维监控等功能,并通过扩展功能支持与AI平台集成、跨地域复制与联邦查询等高级应用场景,为企业构建实时、高效、可扩展的数据仓库解决方案。以下是对AnalyticDB产品使用合集的概述,包括数据导入、查询分析、数据管理、运维监控、扩展功能等方面。
|
7月前
|
存储 人工智能 Cloud Native
耳朵经济快速增长背后,喜马拉雅数据价值如何释放 | 创新场景
喜马拉雅和阿里云的合作,正走在整个互联网行业的最前沿,在新的数据底座之上,喜马拉雅的AI、大数据应用也将大放光彩。本文摘自《云栖战略参考》
46594 5
耳朵经济快速增长背后,喜马拉雅数据价值如何释放 | 创新场景
|
1月前
|
Cloud Native 关系型数据库 MySQL
云原生数据仓库产品使用合集之在ADB中,如何将源数据的多表(数据结构一致)汇总到一张表
阿里云AnalyticDB提供了全面的数据导入、查询分析、数据管理、运维监控等功能,并通过扩展功能支持与AI平台集成、跨地域复制与联邦查询等高级应用场景,为企业构建实时、高效、可扩展的数据仓库解决方案。以下是对AnalyticDB产品使用合集的概述,包括数据导入、查询分析、数据管理、运维监控、扩展功能等方面。
|
1月前
|
人工智能 Cloud Native 算法
数据之势丨AI时代,云原生数据库的最新发展趋势与进展
AI与云数据库的深度结合是数据库发展的必然趋势,基于AI能力的加持,云数据库未来可以实现更快速的查询和决策,帮助企业更好地利用海量数据进行业务创新和决策优化。
数据之势丨AI时代,云原生数据库的最新发展趋势与进展
|
1月前
|
Cloud Native 关系型数据库 分布式数据库
数据之势丨云原生数据库,走向Serverless与AI驱动的一站式数据平台
在大模型席卷之下,历史的齿轮仍在转动,很多人开始思考,大模型能为数据库带来哪些改变。阿里云数据库产品事业部负责人李飞飞表示,数据库和智能化的结合是未来非常重要的发展方向,数据库的使用门槛将大幅降低。
|
10月前
|
缓存 Cloud Native 区块链
重塑链上数据索引,Chainbase 云原生 Subgraph 解析
Subgraph 是 The Graph 去中心化应用索引协议的具体实现, 能为各个智能合约创建索引引擎,提供 dataset 数据集供开发者快速查询使用。目前,Chainbase 正式上线并托管的核心 dataset subgraph 数量已经超过 100+。
258 0
重塑链上数据索引,Chainbase 云原生 Subgraph 解析
|
1月前
|
存储 人工智能 运维
【云原生企业级数据湖:打破数据孤岛,优化存储成本】
【云原生企业级数据湖:打破数据孤岛,优化存储成本】 随着大数据时代的到来,企业对于数据的处理和存储需求日益增长。如何有效地存储和管理大量数据,同时降低运维成本,成为了企业面临的一大挑战。盛通教育的云原生企业级数据湖方案,正是为了解决这一问题而设计的。
183 1

热门文章

最新文章