官方博客-第11页-阿里云开发者社区

  • 2024-12-27
    1573

    极简开发,极速上线:构建端到端大模型应用

    本文将以一个经典的 RAG(检索增强生成)知识问答系统为例,详细介绍从智能体设计到最终应用部署的全流程。

    1,573
  • 43744

    基于阿里云PAI平台搭建知识库检索增强的大模型对话系统

    基于原始的阿里云计算平台产技文档,搭建一套基于大模型检索增强答疑机器人。本方案已在阿里云线上多个场景落地,将覆盖阿里云官方答疑群聊、研发答疑机器人、钉钉技术服务助手等。线上工单拦截率提升10+%,答疑采纳率70+%,显著提升答疑效率。

  • 2024-05-15
    2608

    Multi-Agent实践第5期:RAG智能体的应用:让AgentScope介绍一下自己吧

    本期文章,我们将向大家展示如何使用AgentScope中构建和使用具有RAG功能的智能体,创造AgentScope助手群,为大家解答和AgentScope相关的问题。

    2,608
  • 2024-07-30
    1970

    阿里云百炼应用实践系列-AI助手快速搭建

    本文主要介绍如何基于阿里云百炼平台快速在10分钟为您的网站添加一个 AI 助手。我们基于阿里云百炼平台的能力,以官方帮助文档为参考,搭建了一个以便全天候(7x24)回应客户咨询的AI助手,介绍了相关技术方案和主要代码,供开发者参考。

    1,970
  • 2024-11-29
    1162

    性能提升利器|PolarDB- X 超详细列存查询技术解读

    本文将深入探讨 PolarDB-X 列存查询引擎的分层缓存解决方案,以及其在优化 ORC 列存查询性能中的关键作用。

    1,162
  • 2025-05-06
    1328

    MCP 规范新版本特性全景解析与落地实践

    MCP Specification 在 2025-03-26 发布了最新的版本,本文对主要的改动进行详细介绍和解释

  • 2024-05-15
    1225

    元象大模型开源30款量化版本 加速低成本部署丨附教程

    元象大模型一次性发布30款量化版本,全开源,无条件免费商用。

    1,225
  • 2024-05-15
    1167

    vLLM部署Yuan2.0:高吞吐、更便捷

    vLLM是UC Berkeley开源的大语言模型高速推理框架,其内存管理核心——PagedAttention、内置的加速算法如Continues Batching等,一方面可以提升Yuan2.0模型推理部署时的内存使用效率,另一方面可以大幅提升在实时应用场景下Yuan2.0的吞吐量。

    1,167
  • 2025-06-03
    1098

    实现企业级 MCP 服务统一管理和智能检索的实践

    本文将深入剖析 MCP Server 的五种主流架构模式,并结合 Nacos 服务治理框架,为企业级 MCP 部署提供实用指南。

  • 1
    ...
    10
    11
    12
    ...
    62
    到第