2024-05-15
87

短视频批量混剪-经验漫谈

“批量生产”、“快速裂变”和“去重”是制作营销短视频的关键,基于有限数量的基础素材大规模生成指定数量的新视频,是营销短视频创作的常见思路。本篇主要介绍一些经验方法,助您更快更高效地生产优质短视频。

87
2024-05-15
138

基于ASK+TFJob快速完成分布式Tensorflow训练任务

本文介绍如何使用TFJob在ASK+ECI场景下,快速完成基于GPU的TensorFlow分布式训练任务。

138
2024-05-15
135569

基于客户真实使用场景的云剪辑Timeline问题解答与代码实操

本文为阿里云智能媒体服务IMS「云端智能剪辑」实践指南第6期,从客户真实实践场景出发,分享一些Timeline小技巧(AI_TTS、主轨道、素材对齐),助力客户降低开发时间与成本。

135,569
2024-05-15
794

高并发架构设计三大利器:缓存、限流和降级

软件系统有三个追求:高性能、高并发、高可用,俗称三高。本篇讨论高并发,从高并发是什么到高并发应对的策略、缓存、限流、降级等。

794
2024-05-15
145365

弹性调度助力企业灵活应对业务变化,高效管理云上资源

本文主要介绍了弹性调企业灵活应对企业业务变化,并高效管理云上资源。

145,365
2024-05-15
92573

阿里云云原生弹性方案,用弹性解决集群资源利用率难题

本文主要介绍了通过弹性,实现成本优化,解决集群资源利用率难题。

92,573
2024-05-15
154

如何在数字世界复刻一个高还原、高拟真的“你”

通过阿里云智能媒体服务IMS完成数字人形象训练、人声克隆定制,并使用Timeline实现视频合成及创作,打造一个“声形俱佳”的数字分身。

154
2024-05-15
100760

大语言模型推理提速,TensorRT-LLM 高性能推理实践

大型语言模型(Large language models,LLM)是基于大量数据进行预训练的超大型深度学习模型,本文主要讲述TensorRT-LLM利用量化、In-Flight Batching、Attention、Graph Rewriting提升 LLM 模型推理效率。

100,760
2024-05-15
641

从方法论到最佳实践,深度解析企业云原生 DevSecOps 体系构建

本文主要介绍了云原生安全的现状以及企业应用在云原生化转型中面临的主要安全挑战以及相对成熟的一部分安全体系方法论,深度解析企业云原生 DevSecOps 体系构建。

641
1
2
3
4
到第
1
2
3
4
3/4