2024-05-15
420

vLLM部署Yuan2.0:高吞吐、更便捷

vLLM是UC Berkeley开源的大语言模型高速推理框架,其内存管理核心——PagedAttention、内置的加速算法如Continues Batching等,一方面可以提升Yuan2.0模型推理部署时的内存使用效率,另一方面可以大幅提升在实时应用场景下Yuan2.0的吞吐量。

2024-05-15
584

从0-1的建设云上稳定性

本文将从前后端的视角整体看下我们在云上稳定性治理的一些路径和经验。首先从平台的系统架构模型出发,站在全局视角看下整个平台的风险。

584
2024-05-16
87973

通义千问 2.5 “客串” ChatGPT4,看这篇让你分清楚

这篇文章介绍了使用开源工具NextChat和Higress搭建的一个模拟ChatGPT和通义千问对话PK的测试场景。

87,973
2024-06-26
25655

AutoMQ:基于 Regional ESSD 构建十倍降本的云原生 Kafka

本文介绍了AutoMQ基于Regional ESSD构建的十倍降本云原生,降低成本并提供无限容量,通过将存储层分离,使用ESSD作为WAL,OSS作为主存储,实现了成本降低和性能优化。此外,它利用弹性伸缩和抢占式实例,减少了70%的计算成本,并通过秒级分区迁移实现了高效弹性。而且,AutoMQ与Apache Kafka相比,能实现10倍成本优化和百倍弹性效率提升,且完全兼容Kafka API。

2024-08-19
292

表格存储(Tablestore)支持 Serverless 低成本向量检索服务

在当今 GPT 技术盛行的时代,大模型推动了向量检索技术的迅猛发展。向量检索相较于传统的基于关键词的检索方法,能够更精准地捕捉数据之间的语义关系,极大提升了信息检索的效果。特别是在自然语言处理、计算机视觉等领域,向量能够将不同模态的数据在同一空间中进行表达和检索,推动了智能推荐、内容检索、RAG 和知识库等应用的广泛普及。阿里云表格存储(Tablestore)的多元索引提供了向量检索能力。表格存储是一款 Serverless 的分布式结构化数据存储服务,诞生于 2009 年阿里云成立时,主要特点是分布式、Serverless 开箱即用、按量付费、水平扩展和查询功能丰富和性能优秀等。

2024-08-22
226

阿里云百炼应用实践系列-10分钟在企业微信中集成一个 AI 助手

在阿里云平台上,您只需十分钟,无需任何编码,即可在企业微信上为您的组织集成一个具备大模型能力的AI助手。此助手可24小时响应用户咨询,解答各类问题,尤其擅长处理私域问题,从而成为您企业的专属助手,有效提升用户体验及业务竞争力。

226
2024-09-06
41

MacTalk 测评通义灵码,实现“微信表情”小功能

墨问西东创始人池建强分享了团队使用通义灵码的经验。

2024-05-15
92625

阿里云云原生弹性方案,用弹性解决集群资源利用率难题

本文主要介绍了通过弹性,实现成本优化,解决集群资源利用率难题。

92,625
2024-05-15
145569

弹性调度助力企业灵活应对业务变化,高效管理云上资源

本文主要介绍了弹性调企业灵活应对企业业务变化,并高效管理云上资源。

145,569
1
...
10
11
12
...
30
到第
11/30