官方博客-第12页-阿里云开发者社区

  • 2024-07-30
    1970

    阿里云百炼应用实践系列-AI助手快速搭建

    本文主要介绍如何基于阿里云百炼平台快速在10分钟为您的网站添加一个 AI 助手。我们基于阿里云百炼平台的能力,以官方帮助文档为参考,搭建了一个以便全天候(7x24)回应客户咨询的AI助手,介绍了相关技术方案和主要代码,供开发者参考。

    1,970
  • 2025-05-06
    1328

    MCP 规范新版本特性全景解析与落地实践

    MCP Specification 在 2025-03-26 发布了最新的版本,本文对主要的改动进行详细介绍和解释

  • 43743

    基于阿里云PAI平台搭建知识库检索增强的大模型对话系统

    基于原始的阿里云计算平台产技文档,搭建一套基于大模型检索增强答疑机器人。本方案已在阿里云线上多个场景落地,将覆盖阿里云官方答疑群聊、研发答疑机器人、钉钉技术服务助手等。线上工单拦截率提升10+%,答疑采纳率70+%,显著提升答疑效率。

  • 2024-05-15
    1225

    元象大模型开源30款量化版本 加速低成本部署丨附教程

    元象大模型一次性发布30款量化版本,全开源,无条件免费商用。

    1,225
  • 2024-05-15
    1167

    vLLM部署Yuan2.0:高吞吐、更便捷

    vLLM是UC Berkeley开源的大语言模型高速推理框架,其内存管理核心——PagedAttention、内置的加速算法如Continues Batching等,一方面可以提升Yuan2.0模型推理部署时的内存使用效率,另一方面可以大幅提升在实时应用场景下Yuan2.0的吞吐量。

    1,167
  • 2025-06-03
    1098

    实现企业级 MCP 服务统一管理和智能检索的实践

    本文将深入剖析 MCP Server 的五种主流架构模式,并结合 Nacos 服务治理框架,为企业级 MCP 部署提供实用指南。

  • 2024-05-15
    102467

    大语言模型推理提速,TensorRT-LLM 高性能推理实践

    大型语言模型(Large language models,LLM)是基于大量数据进行预训练的超大型深度学习模型,本文主要讲述TensorRT-LLM利用量化、In-Flight Batching、Attention、Graph Rewriting提升 LLM 模型推理效率。

    102,467
  • 2024-05-16
    57082

    容器内存可观测性新视角:WorkingSet 与 PageCache 监控

    本文介绍了 Kubernetes 中的容器工作内存(WorkingSet)概念,它用于表示容器内存的实时使用量,尤其是活跃内存。

  • 2024-09-06
    1493

    API 网关 OpenID Connect 实战:单点登录(SSO)如此简单

    单点登录(SSO)可解决用户在多系统间频繁登录的问题,OIDC 因其标准化、简单易用及安全性等优势成为实现 SSO 的优选方案,本文通过具体步骤示例对 Higress 中开源的 OIDC Wasm 插件进行了介绍,帮助用户零代码实现 SSO 单点登录。

  • 1
    ...
    11
    12
    13
    ...
    64
    到第