官方博客-第9页-阿里云开发者社区

  • 2025-01-14
    1155

    网络分析与监控:阿里云拨测方案解密

    阿里云网络拨测业务提供了全球、多种协议、多种网络态势的用户网络性能和用户体验监控场景的全面可观测方案。该文章从拨测场景下,介绍了用户如何快速的构建一套全球用户视角的服务可用性大盘,为客户的业务保驾护航。

    1,155
  • 2025-04-17
    631

    MCP 的 AI 好搭档

    本文介绍了MCP(模型上下文协议)及其在AI领域的应用前景。MCP由Anthropic公司推出,通过标准化通信协议实现AI与数据源间的安全隔离,解决了传统AI应用中的数据隐私和安全问题。文章探讨了从LLM到MCP的进化过程,并分析了其面临的挑战,如算力不足和开放性需求。Serverless技术被提出作为解决这些问题的方案,提供弹性算力和支持安全沙箱环境。最后,文章提供了如何一键部署热门MCP Server的教程,帮助开发者快速上手并体验该协议的实际应用效果。

    631
  • 2024-05-15
    102406

    大语言模型推理提速,TensorRT-LLM 高性能推理实践

    大型语言模型(Large language models,LLM)是基于大量数据进行预训练的超大型深度学习模型,本文主要讲述TensorRT-LLM利用量化、In-Flight Batching、Attention、Graph Rewriting提升 LLM 模型推理效率。

    102,406
  • 2024-05-15
    384

    打造一个高可用多租户的企业级Maven私有仓库服务

    本文讨论了构建高可用多租户企业级Maven私有仓库服务的必要性,指出传统Nexus和Artifactory开源版缺乏高可用性,商业版虽支持但成本高、扩展性有限。理想的解决方案应包含无状态节点、使用云存储(如阿里云OSS)和集群化的数据库与Elasticsearch。

    384
  • 2024-07-29
    20037

    LLM 应用可观测性:从 Trace 视角展开的探索与实践之旅

    基于大语言模型的应用在性能、成本、效果等方面存在一系列实际痛点,本文通过分析 LLM 应用模式以及关注点差异来阐明可观测技术挑战,近期阿里云可观测推出了面向 LLM 应用的可观测解决方案以及最佳实践,一起来了解下吧。

    20,037
  • 2024-11-01
    952

    Serverless GPU:助力 AI 推理加速

    近年来,AI 技术发展迅猛,企业纷纷寻求将 AI 能力转化为商业价值,然而,在部署 AI 模型推理服务时,却遭遇成本高昂、弹性不足及运维复杂等挑战。本文将探讨云原生 Serverless GPU 如何从根本上解决这些问题,以实现 AI 技术的高效落地。

  • 2025-01-07
    2591

    阿里云百炼xWaytoAGI共学课DAY1 - 必须了解的企业级AI应用开发知识点

    本课程旨在介绍阿里云百炼大模型平台的核心功能和应用场景,帮助开发者和技术小白快速上手,体验AI的强大能力,并探索企业级AI应用开发的可能性。

    2,591
  • 2025-01-23
    930

    快速定位并优化CPU 与 JVM 内存性能瓶颈

    本文介绍了 Java 应用常见的 CPU & JVM 内存热点原因及优化思路。

    930
  • 2025-02-07
    730

    浏览量超 10w 的热图,描述 RAG 的主流架构

    大模型性能的持续提升,进一步挖掘了 RAG 的潜力,RAG 将检索系统与生成模型相结合,带来诸多优势,如实时更新知识、降低成本等。点击本文,为您梳理 RAG 的基本信息,并介绍提升大模型生成结果的方法,快一起看看吧~

    730
  • 1
    ...
    8
    9
    10
    ...
    60
    到第