官方博客-第4页-阿里云开发者社区

  • 2024-07-01
    33141

    详解微服务应用灰度发布最佳实践

    相对于传统软件研发,微服务架构下典型的需求交付最大的区别在于有了能够小范围真实验证的机制,且交付单位较小,风险可控,灰度发布可以弥补线下测试的不足。本文从 DevOps 视角概述灰度发布实践,介绍如何将灰度发布与 DevOps 工作融合,快来了解吧~

  • 2024-06-14
    39930

    AI时代:云存储加速多模态数据存储与管理创新

    阿里云存储产品高级解决方案架构师欧阳雁(乐忱)分享了中国企业在全闪存高端存储市场的快速增长,指出AI大模型的发展推动了企业级存储市场。去年,高端企业级存储闪存占比约为25%,相较于欧美50%的比例,显示出中国在AI领域的巨大增长潜力。演讲涵盖AI业务流程,包括数据预处理、训练和推理的痛点,以及针对这些环节的存储解决方案,强调了稳定、高性能和生命周期管理的重要性。此外,还介绍了数据预处理的全球加速和弹性临时盘技术,训练阶段的高性能存储架构,推理场景的加速器和AI Agent的应用,以及应对大数据业务的存储考量,如对象存储、闪电立方和冷归档存储产品。

    39,930
  • 2024-09-25
    800

    新场景、新能力,AI-native 时代的可观测革新

    借助 AI-native 可观测解决方案,阿里云为用户提供开箱即用的覆盖大模型应用、大模型到基础设施的全链路实时观测、告警与诊断能力,帮助企业在复杂的数字化转型过程中更有效地确保资源的高效利用与业务的持续成功。

  • 2025-05-06
    1328

    MCP 规范新版本特性全景解析与落地实践

    MCP Specification 在 2025-03-26 发布了最新的版本,本文对主要的改动进行详细介绍和解释

  • 2024-05-15
    102467

    大语言模型推理提速,TensorRT-LLM 高性能推理实践

    大型语言模型(Large language models,LLM)是基于大量数据进行预训练的超大型深度学习模型,本文主要讲述TensorRT-LLM利用量化、In-Flight Batching、Attention、Graph Rewriting提升 LLM 模型推理效率。

    102,467
  • 2024-05-16
    57082

    容器内存可观测性新视角:WorkingSet 与 PageCache 监控

    本文介绍了 Kubernetes 中的容器工作内存(WorkingSet)概念,它用于表示容器内存的实时使用量,尤其是活跃内存。

  • 2025-08-12
    482

    「迁移急救包」全云平台无缝迁移云效实操手册

    阿里云云效是国内领先的一站式DevOps平台,提供代码全生命周期管理、智能化交付流水线及精细化研发管控,支持多种开发场景。本文详细介绍了从其他平台(如Coding)向云效迁移的完整方案,包括代码仓库、流水线、制品仓库及项目数据的迁移步骤,帮助用户实现高效、安全的平滑迁移,提升研发效率与协作能力。

  • 2023-05-15
    7483

    消息队列之 MetaQ 和 Kafka 区别和优势详解

    本篇文章介绍MetaQ和Kafka这两个消息队列的区别和优势。

    7,483
  • 2024-05-15
    63362

    All in One:Prometheus 多实例数据统一管理最佳实践

    当管理多个Prometheus实例时,阿里云Prometheus托管版相比社区版提供了更可靠的数据采集和便捷的管理。本文比较了全局聚合实例与数据投递方案,两者在不同场景下各有优劣。

  • 1
    ...
    3
    4
    5
    ...
    47
    到第