2024-05-15
373

vLLM部署Yuan2.0:高吞吐、更便捷

vLLM是UC Berkeley开源的大语言模型高速推理框架,其内存管理核心——PagedAttention、内置的加速算法如Continues Batching等,一方面可以提升Yuan2.0模型推理部署时的内存使用效率,另一方面可以大幅提升在实时应用场景下Yuan2.0的吞吐量。

144815

一键生成视频,用 PAI-EAS 部署 AI 视频生成模型 SVD 工作流

本教程将带领大家免费领取阿里云PAI-EAS的免费试用资源,并且带领大家在 ComfyUI 环境下使用 SVD的模型,根据任何图片生成一个小短视频。

2023-08-11
810

Linux 内存管理新特性:Memory folios 解读

本文主要讲解folio ,极其在应用中的直接价值。

810
2024-05-15
268

SpringBoot项目部署上云

本文为第一期「实战派」有奖征文优秀作品,在ECS或轻量应用服务器上通过宝塔面板实现SpringBoot项目,并使用域名公网访问。

2024-05-15
179

基于ASK+TFJob快速完成分布式Tensorflow训练任务

本文介绍如何使用TFJob在ASK+ECI场景下,快速完成基于GPU的TensorFlow分布式训练任务。

179
2023-06-26
8571

Hologres弹性计算在OLAP分析上的实践和探索

本文介绍了OLAP分析在大数据分析中的位置,分析并介绍目前大数据OLAP遇到的分析性能、资源隔离、高可用、弹性扩缩容等核心问题,解析阿里云Hologres是如何解决极致性能、弹性、业务永续、性价比等核心刚需的最佳实践,介绍阿里云Hologres弹性计算组在弹性计算、资源隔离上的探索和创新。

8,571
2024-05-15
218

Yuan2.0大模型,联合向量数据库和Llama-index,助力检索增强生成技术

本文将以Yuan2.0最新发布的Februa模型为例进行测试验证,用更小规模的模型达到更好的效果。

2024-05-15
142

元象开源首个MoE大模型:4.2B激活参数,效果堪比13B模型,魔搭社区最佳实践来了

近日,元象发布其首个Moe大模型 XVERSE-MoE-A4.2B, 采用混合专家模型架构 (Mixture of Experts),激活参数4.2B,效果即可媲美13B模型。该模型全开源,无条件免费商用,支持中小企业、研究者和开发者可在元象高性能“全家桶”中按需选用,推动低成本部署。

2024-06-24
45723

多环境镜像晋级/复用最佳实践

本文介绍了在应用研发场景中,如何通过阿里云服务实现镜像构建部署的高效和安全。主要关注两个实践方法来确保“所发即所测”。

45,723
1
...
5
6
7
...
16
到第
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
6/16