2024-05-15
372

vLLM部署Yuan2.0:高吞吐、更便捷

vLLM是UC Berkeley开源的大语言模型高速推理框架,其内存管理核心——PagedAttention、内置的加速算法如Continues Batching等,一方面可以提升Yuan2.0模型推理部署时的内存使用效率,另一方面可以大幅提升在实时应用场景下Yuan2.0的吞吐量。

2024-06-13
14055

阿里云运维第一步(监控):开箱即用的监控

监控运维是一个体系化的工作,完善这个体系非一日之功。但是我们的业务不可一日无监控“裸奔”,在阿里云怎么样快速低成本的建立第一道资源监控的护城河?开箱即用的云监控,将会是你进入阿里云的第一个可靠的小伙伴。

14,055
2023-08-11
810

Linux 内存管理新特性:Memory folios 解读

本文主要讲解folio ,极其在应用中的直接价值。

810
2024-05-15
78716

深度剖析 RocketMQ 5.0,流数据库:如何实现一体化流处理?

本文将从概念和宏观角度理解什么是流处理。 RocketMQ 5.0,学习 RocketMQ 提供的轻量流处理引擎 RStreams,了解其特性和原理。学习 RocketMQ 的流数据库 RSQLDB,通过流存储和流计算的深度结合,看它如何进一步降低流处理使用门槛。

78,716
2024-05-15
66753

无需重新学习,使用 Kibana 查询/可视化 SLS 数据

本文演示了使用 Kibana 连接 SLS ES 兼容接口进行查询和分析的方法。

2024-05-15
218

Yuan2.0大模型,联合向量数据库和Llama-index,助力检索增强生成技术

本文将以Yuan2.0最新发布的Februa模型为例进行测试验证,用更小规模的模型达到更好的效果。

2024-05-15
142

元象开源首个MoE大模型:4.2B激活参数,效果堪比13B模型,魔搭社区最佳实践来了

近日,元象发布其首个Moe大模型 XVERSE-MoE-A4.2B, 采用混合专家模型架构 (Mixture of Experts),激活参数4.2B,效果即可媲美13B模型。该模型全开源,无条件免费商用,支持中小企业、研究者和开发者可在元象高性能“全家桶”中按需选用,推动低成本部署。

2024-05-15
202

阿里妈妈展示广告引擎新探索:迈向全局最优算力分配

在绿色计算的大背景下,算力分配将朝着更加高效和智能的方向持续演进。本文将介绍阿里妈妈展示广告引擎在全局视角下优化算力分配的新探索,让在线引擎像变形金刚一样灵活强悍。算力在提倡节能减排,降本增效,追求绿色技术的大趋势下,充分利用好算力资源,尤其是在阿里妈妈展示广告引擎这种使用近百万core机器资源的业...

2024-05-15
204

基于CEN-TR实现多种云上组网方案

基于CEN-TR可以实现灵活地组网方案,在面向不同客户业务场景可以选择不同的组网策略。本文介绍了从最简单的VPC互联到各种复杂的组网方案,适用于不同规模企业在网络组网这块的需求。

204
1
...
7
8
9
...
24
到第
8/24