官方博客-第15页-阿里云开发者社区

  • 2024-11-01
    952

    Serverless GPU:助力 AI 推理加速

    近年来,AI 技术发展迅猛,企业纷纷寻求将 AI 能力转化为商业价值,然而,在部署 AI 模型推理服务时,却遭遇成本高昂、弹性不足及运维复杂等挑战。本文将探讨云原生 Serverless GPU 如何从根本上解决这些问题,以实现 AI 技术的高效落地。

  • 2025-01-26
    1207

    最近谈论 SSE 和 WebSocket 的人越来越多的原因

    实时通信已经成了大模型应用的标配。

  • 2025-04-07
    341

    Nacos托管LangChain应用Prompts和配置,助力你的AI助手快速进化

    AI 应用开发中,总有一些让人头疼的问题:敏感信息(比如 API-KEY)怎么安全存储?模型参数需要频繁调整怎么办?Prompt 模板改来改去,每次都得重启服务,太麻烦了!别急,今天我们就来聊聊如何用 Nacos 解决这些问题。

  • 2025-05-12
    962

    如何在通义灵码里使用 MCP 能力

    通义灵码支持MCP工具使用,通过模型自主规划实现工具调用,深度集成魔搭MCP广场,涵盖2400+热门服务。提供STDIO和SSE两种通信模式,适用于不同场景需求。用户可通过智能体模式调用MCP工具,完成如网页内容抓取、天气查询等任务。文档详细介绍了服务配置、使用流程及常见问题解决方法,助力开发者高效拓展AI编码能力。

  • 2025-06-30
    400

    基于 AI 网关和 llmaz,提升 vLLM 推理服务可用性和部署易用性的实践

    本文介绍了如何使用 llmaz 快速部署基于 vLLM 的大语言模型推理服务,并结合 Higress AI 网关实现流量控制、可观测性、故障转移等能力,构建稳定、高可用的大模型服务平台。

  • 2024-05-15
    93146

    阿里云云原生弹性方案,用弹性解决集群资源利用率难题

    本文主要介绍了通过弹性,实现成本优化,解决集群资源利用率难题。

    93,146
  • 2024-05-15
    49918

    秒级弹性,探索弹性调度与虚拟节点如何迅速响应瞬时算力需求

    秒级弹性!探索弹性调度与虚拟节点如何迅速响应瞬时算力需求?

    49,918
  • 2024-05-15
    10664

    通义千问API:找出两篇文章的不同

    本章我们将介绍如何利用大模型开发一个文档比对小工具,我们将用这个工具来给互联网上两篇内容相近但版本不同的文档找找茬,并且我们提供了一种批处理文档比对的方案

    10,664
  • 1
    ...
    14
    15
    16
    ...
    58
    到第