质效两全:媒体服务的创新“顶设”

简介: 7.28,LiveVideoStackCon阿里云视频云专场

视频化浪潮汹涌、生成式人工智能AIGC极速迭代、体验需求和应用场景愈发多样......


面对“视频生产力”的变革,我们能否洞察音视频行业的“真正需求”?


是否存在一套优雅的媒体服务设计,满足多方需求?


随着AIGC和大模型的能力加持,媒体服务的“全智能”又将如何演进?


本文由IMMENSE、「阿里云视频云」媒体服务负责人邹娟和LiveVideoStack策划、采访而成。


再探“真正需求”


大视频行业的真正“需求”是什么?


在视频化领域,关键无外乎是视频的生产与视频的消费。那么,关于大视频行业的真正“需求”,我们也可以从视频生产端视频消费端两个维度来讨论。


对于视频生产端而言,快速、高效地生产视频可以抢占发布先机、吸引观众;而提供更优质、创新、综合体验好的视频内容可以留住观众


对于视频消费端而言,最重要的是“体验”:题材新颖、有趣,内容丰富且有“获得感”;视频的画面和声音感官效果好;获取的信息是“第一手”、最新鲜的......


看似需求多样,实则无论是生产还是消费的需求,可以归结为两个关键词:“高时效” 和“高质量”。


规模化下,“高时效”和“高质量”可以两全吗?


“高时效”需要生产力和生产效率的提升,意味着相同时间内生产更多视频内容,这也会带来规模(数量、时长、行业、场景)的扩大。


在规模化之下,“高时效”与“高质量”看似难两全,但随着“云计算”与“人工智能”时代的到来,局面便大不相同了。


云计算既能提供海量、高并发、弹性的视频处理能力,还能将多种视频业务、多个视频场景,用最优的组织和调度方式,错峰亦或是混跑,这便实现了两个维度的“规模化”。在此之上,云可以将单个视频的高质量特性完美复刻,从而快速实现“高质量”视频的规模化


在此基础上,随着AI的不断发展和深入,智能能力在某些场景上比传统人力更精准、更高效,这也同样促成了规模化下的“高时效”与“高质量”


新数智时代,云和AI走向深度融合,而随着AIGC的大爆发,AI不再仅仅作为单点能力应用在某个环节,一切皆向着“全智能”演进。



“顶层设计”与“发动机”


云厂商面对“内容生产革命”,下一步“剑指何方”?


云厂商,天然的To B角色。由于不同行业、不同业务场景、不同需求的客户,所需的功能、性能、时效性、实现效果大相径庭。


因此,对云厂商来讲,开放、灵活、多场景的问题是必然需要解决的。


展开来说,视频的全链路从采集开始,历经制作、处理、管理、分发、消费,每一个环节包含了非常多所需的媒体原子能力。在面对不同场景以及不同行业的客户需求时,对这些原子能力的使用深度和组合方式,是十分不同的。


因此,经总结提炼和抽象后形成的统一“顶层设计”,便是云厂商的“制胜法宝”。


求本溯源,我们如何在“顶层”寻求解决之道?


首先,是将媒体原子服务“打散”,再“重组”。


这里,一是需要将视频全链路的媒体原子服务作细粒度拆分,并把每个服务做深做透;二是以一套灵活的编排机制,将这些原子服务依照客户的设想、场景、业务流,实现自由搭建和组装。


再者,是底层媒体技术的统一设计。


视频处理流程由解封装、解码、前处理、编码、封装这几个主要环节构成,我们需要一个下接算法、上联调度的“媒体引擎”,构建统一的媒体处理框架,将这些环节组织起来、支持多种算法、灵活集成插件、处理各类格式。


媒体原子服务的“打散”和“重组”,构建了媒体服务“最上层”可灵活编排的业务流,而统一“媒体引擎”是媒体任务在底层“执行层”实现高时效、高性能及丰富功能的基石。


最后,在二者之间,还需要统一的“媒体分布式服务框架和媒体元数据体系”做一层连接,其中包括了:跨产品跨场景的统一媒资OneMediaID、统一工作流、统一的媒体业务流消息处理机制、统一的媒体任务管道调度机制等。


由此,形成了一套统一顶设的“媒体服务”。



其中,媒体引擎是当之无愧的“发动机”?


我们讲到了“媒体引擎”,它是整个媒体服务的底层核心,是所有媒体处理和媒体生产制作任务的执行器,既需要处理传统的媒体处理类的任务,也需要处理各式各样AI任务,从而真正实现下接算法,上联调度。


“媒体引擎”同时涉及“编排层”技术,以及“内核层”技术。这里的“编排”并不是指业务流的“编排”,而是单任务处理各环节的“编排”和算子的“编排”


通过统一的编排Pipeline及策略,“媒体引擎”能灵活支持不同任务的多种参数组合,并使得这些参数组合的执行效果达到画质、性能、码率、时效性等多维权重的综合最佳。


此外,“媒体引擎”还负责对任务进行最优的执行策略。


比如:是整段执行还是并行执行?是切片级别并行还是帧级别并行?是否需要调用特殊的组件甚至使用特殊的机型?以及算子是否存在依赖关系?.....我们把媒体引擎的这类决策能力称为“media worker brain”。


在这样的大脑调配之下,对任务最优执行策略的追求,亦是对“高质量”和“高时效”追求的一脉相承。



持续的生命力:灵活、开放、多业务


一个平台的持续生命力,源于什么?


反复强调“顶层设计”,因为作为ToB的云厂商,阿里云视频云一定要解决多业务、灵活、开放的问题。


我们既需要考虑不同客户业务的个性与特色,又不能全部case-by-case地贴身定制,因此我们一定要有“刻入骨髓”的抽象思维,需要时时刻刻总结、提炼、抽象,对产品、模块、服务、API的设计皆是如此。


于是,“顶层设计”可以避免每个业务板块或模块在各自“舒适”的体系里“野蛮发展”,一切皆从全局来规划权衡


仔细看来,媒体服务的“顶设”先基于已有需求及客户场景,按照媒体服务的5大模块(媒体汇聚、媒体处理、媒体生产与制作、媒体管理、媒体消费),将媒体能力进行梳理、总结,并以“可复用”为依据,将其进一步打碎成细粒度的原子媒体能力,经过一层或多层的共性抽象,实现不同范围的Service。


比如:在媒体生产制作模块,媒体服务既提供了偏原子的VideoDetext去字幕服务,也提供了更综合的剪辑合成服务。


同时,需要将相对固定的和经过变化的部分进行分离,提供一些系统内置的媒体流程,降低客户的开发难度,而针对客户希望有更高灵活度的场景,还设计了类似可编程的脚本或策略进行自定义。



开放性也是媒体服务顶层设计的另一个关注点。


智能媒体服务的开放性体现在:除了支持阿里云产品的相关协议和能力之外,还支持国际或国内的标准协议及部分第三方厂商的协议和能力。


比如,在低延时传输这个领域,智能媒体服务除了支持自家的RTS之外,还支持LL-HLS、LHLS、Dash/CMAF等;


再比如,我们除了支持阿里云OSS作为媒体处理服务的输入输出之外,还支持AWS的S3、以及HTTP URL等;


还有,我们除了可以支持自研音视频及AI算法之外,也支持接入经过安全校验的三方AI算子等。


我们相信,只有开放与合作,才能让技术持续焕发生命力。



“顶设”落地,能让“高时效”再高一节吗?


当“顶设”帮我们突围了多业务、灵活、开放的壁垒,自然而然,就带来了更高的“高时效”。

深入其中,这包含4个维度的技术:


一是在工程架构层面,设计并实现“并行”处理框架,将整段视频或时间线Timeline先分片Split,做“并行”处理后再进行“合并”,这项技术适合“中长视频”或输入为“多个素材”的场景;


二是针对“单片”任务进行“性能优化”,包括算法优化、指令集优化、算法在引擎层的工程优化、pipeline优化以及算法和调度的联合优化等,使得任务在考虑源文件适配、任务参数特性、机型及配置、资源水位等多维度情况下实现最优执行;


三是在“分布式服务层”优化媒体业务流的编排,让流程的Activities在更广的范围内自由连接,如:边录边转、边播边转等,这可以让不同的产品和服务通过同一流程串联起来,从而实现跨场景甚至跨产品的流程提速;


四是“AI能力”的加持,无论是在算法层、引擎层还是在分布式的服务层,在处理规模化视频时,可以将AI带来的优势极致发挥,实现“高时效”的进一步提升。


如果一切都在无限解决媒体服务的“高时效”,那“高质量”的完美实现,在当下可以更多的利用AI能力。



AI:日新月异的“加速力”


还追得上AI的迭代和AIGC的演进吗?


大模型和AIGC技术的发展,可以用“日新月异”来形容,其迭代速度史无前例,涌现出的各类垂直应用模型,也使得音视频行业的应用场景更加广泛和多样化。


更重要的是,大模型以及AIGC可以运用更大量的数据、更复杂的算法、以及更强力的算力支撑,大大提高音视频处理的精度和效果,带来无限想象。


在这场AIGC风暴之前,我们的媒体服务已先行布局,让AI能力可以灵活参与视频的各种智能化场景,将AI的迭代和AIGC的演进,纳入智能化的“顶层设计”。


针对AIGC的演进(以内容创作领域为例),从序曲开始,我们设定了五个阶段:


➤ 第一阶段(序曲):AI负责素材的预处理,并按预设模版进行编排,实现视频全智能生产的第一个阶段。

➤ 第二阶段:在素材预处理之上,还能完成本属于视频创意环节的编排工作(脚本设计/Timeline设计),从而实现智能批量混剪。

➤ 第三阶段:面向特定场景和特定要求的成品,由AI根据已有成片反向解构分镜头,负责素材的搜索、筛选(以及部分素材生成)、处理、编排,并最终制作合成。

➤ 第四阶段:面向特定场景,AI负责理解场景的要求,包括素材的搜索、筛选(以及部分素材生成)、处理、编排,并最终制作合成。

➤ 第五阶段:针对多种场景,依据海量丰富的数据,AI能够自行发掘创意点,真正拥有“创作力”。


简扼来说,AI逐步渗透业务,从能力到场景,先单例后普适、先局面再整体、先执行再创意,完成AI从辅助业务到对业务全智能变革的演进。


可以看出,从前的AI只是辅助创作,而今天的AI已然可以成为创作的主角。



再往前看,无论元宇宙还是Web3.0,下一代互联网的繁荣需要海量的数字内容,对内容的数量、形式和交互性都提出了更高的要求。


举例来说,很多基于大模型的图像增强、实景抠图等技术,在效果上已优于传统AI算法;再比如,运用Text to Video(文本转化为视频)生成几秒空镜头、Image to Video(图像转化为视频)生成一段连续动作的视频,不仅能解决高质量的问题,还能实现“无中生有”的突破之作。


未来,运用AIGC的能力,智能媒体服务在生产制作领域,可以极大提升“一键成片”的效果,在智能生成、时间线的智能编排,以及智能剪辑和包装等各环节,都将逐一击破生产制作的效率、质量痛点;在媒资领域,也能运用AIGC生成视频摘要等,为媒资管理提供更多新能量。当然,全方位的探索都在进行中。


大模型时代的AIGC,期待不止。



7月28日下午

LiveVideoStackCon2023上海站

阿里云视频云专场

阿里云智能资深技术专家

《从规模化到全智能:媒体服务的重组与进化》

一起探索媒体服务的创新“顶设”!


讲师海报-邹娟.png


相关文章
|
6月前
|
机器学习/深度学习 人工智能 自然语言处理
AIGC加速智能媒体时代到来
AIGC加速智能媒体时代到来
62 2
AIGC加速智能媒体时代到来
|
2月前
|
人工智能 自然语言处理
业界首家!阿里云智能媒体服务,卓越级通过中国信通院大模型媒体处理评估
阿里云智能媒体服务作为业界首家获得中国信通院“卓越级”通过。
业界首家!阿里云智能媒体服务,卓越级通过中国信通院大模型媒体处理评估
|
6月前
|
API
在阿里云智能媒体服务中
【2月更文挑战第13天】在阿里云智能媒体服务中
57 3
|
6月前
|
机器学习/深度学习 人工智能 自然语言处理
AIGC加速媒体行业智能化发展
【1月更文挑战第16天】AIGC加速媒体行业智能化发展
44 1
AIGC加速媒体行业智能化发展
|
6月前
在智能媒体服务中
【1月更文挑战第13天】【1月更文挑战第63篇】在智能媒体服务中
30 2
|
6月前
|
人工智能 自然语言处理 搜索推荐
智能媒体生产技术的发展
智能媒体生产技术的发展
69 0
|
监控 对象存储
智能媒体
智能媒体
56 6
|
人工智能
智能媒体处理使用技巧
智能AI与视频制作
183 0
|
人工智能 达摩院 算法
疫情下的媒体融合与变革思考
我们处于移动互联网和信息科技高度发达的“眼球经济时代”,早已不是二十年前的二维或三维媒体世界。大众的行为模式和社交习惯、甚至媒体行业的格局都已经发生巨大的变化。在传统媒体与新媒体正在融合的时期发生的特殊疫情,恰恰放大了传媒行业的各种现象和问题,也带来了更多思考。
1501 0
疫情下的媒体融合与变革思考
|
编解码
阿里云加入开放媒体联盟AOM 科技巨头联合推广高清视频新标准
谷歌、亚马逊、阿里巴巴、苹果等科技巨头正在推动一项高清视频媒体的新标准。 日前,阿里云宣布正式加入全球顶级视频标准组织——开放媒体联盟(Alliance for Open Media ,简称AOM),与联盟内的其他厂商一同推广无专利费、跨平台的视频编解码AV1,推动全球范围内更广泛的高清视频标准的升级与应用。
3648 0