2024-05-15
407

vLLM部署Yuan2.0:高吞吐、更便捷

vLLM是UC Berkeley开源的大语言模型高速推理框架,其内存管理核心——PagedAttention、内置的加速算法如Continues Batching等,一方面可以提升Yuan2.0模型推理部署时的内存使用效率,另一方面可以大幅提升在实时应用场景下Yuan2.0的吞吐量。

2024-06-26
25639

AutoMQ:基于 Regional ESSD 构建十倍降本的云原生 Kafka

本文介绍了AutoMQ基于Regional ESSD构建的十倍降本云原生,降低成本并提供无限容量,通过将存储层分离,使用ESSD作为WAL,OSS作为主存储,实现了成本降低和性能优化。此外,它利用弹性伸缩和抢占式实例,减少了70%的计算成本,并通过秒级分区迁移实现了高效弹性。而且,AutoMQ与Apache Kafka相比,能实现10倍成本优化和百倍弹性效率提升,且完全兼容Kafka API。

基于Hologres向量计算与大模型免费定制专属聊天机器人

本文为您介绍如何基于Hologres向量计算能力,结合大模型的阅读理解和信息整合能力,对该垂直行业的问题提供更贴切的回答,即费、快速定制专属聊天机器人。

2023-09-27
1187

深入MaxCompute,人力家借助Information Schema合理治理费用

本文将为大家带来MaxCompute与人力家客户案例深度解读。

2023-12-01
607

MaxCompute 重装上阵,Global Zorder

MaxCompute支持Global Zorder,使得整个表或者分区的数据在全局上能按照指定字段进行ZORDER排序,以便数据能有更好的聚集性。

607
2024-05-15
772

基于PAI-DSW快速启动Stable Diffusion WebUI

基于PAI-DSW快速启动Stable Diffusion WebUI,创作你的专属冬日主题AI画作!

772
2024-05-15
164934

一键开启 GPU 闲置模式,基于函数计算低成本部署 Google Gemma 模型服务

本文介绍如何使用函数计算 GPU 实例闲置模式低成本、快速的部署 Google Gemma 模型服务。

164,934
77694

【AAAI 2024】MuLTI:高效视频与语言理解

多模态理解模型具有广泛的应用,比如多标签分类、视频问答(videoQA)和文本视频检索等。现有的方法已经在视频和语言理解方面取得了重大进展,然而,他们仍然面临两个巨大的挑战:无法充分的利用现有的特征;训练时巨大的GPU内存消耗。我们提出了MuLTI,这是一种高度准确高效的视频和语言理解模型,可以实现高效有效的特征融合和对下游任务的快速适应。本文详细介绍基于MuLTI实现高效视频与语言理解。

2024-05-16
87958

通义千问 2.5 “客串” ChatGPT4,看这篇让你分清楚

这篇文章介绍了使用开源工具NextChat和Higress搭建的一个模拟ChatGPT和通义千问对话PK的测试场景。

87,958
1
...
12
13
14
...
24
到第
13/24