官方博客-第2页-阿里云开发者社区

  • 2024-05-15
    3800

    高并发架构设计三大利器:缓存、限流和降级

    软件系统有三个追求:高性能、高并发、高可用,俗称三高。本篇讨论高并发,从高并发是什么到高并发应对的策略、缓存、限流、降级等。

    3,800
  • 2025-03-14
    1830

    详解大模型应用可观测全链路

    阿里云可观测解决方案从几个方面来尝试帮助使用 QwQ、Deepseek 的 LLM 应用开发者来满足领域化的可观测述求。

    1,830
  • 2024-05-15
    2569

    为大模型工程提效,基于阿里云 ACK 的云原生 AI 工程化实践

    本文主要介绍了解析云原生 AI 所遇到的技术挑战和应对方案,随后介绍云原生 AI 领域的关键技术与架构细节,最后分享我们在 ACK 的相关经验及工程实践。

  • 2024-12-11
    1023

    SpringCloud 应用 Nacos 配置中心注解

    在 Spring Cloud 应用中可以非常低成本地集成 Nacos 实现配置动态刷新,在应用程序代码中通过 Spring 官方的注解 @Value 和 @ConfigurationProperties,引用 Spring enviroment 上下文中的属性值,这种用法的最大优点是无代码层面侵入性,但也存在诸多限制,为了解决问题,提升应用接入 Nacos 配置中心的易用性,Spring Cloud Alibaba 发布一套全新的 Nacos 配置中心的注解。

    1,023
  • 2025-03-21
    1226

    监控vLLM等大模型推理性能

    本文将深入探讨 AI 推理应用的可观测方案,并基于 Prometheus 规范提供一套完整的指标观测方案,帮助开发者构建稳定、高效的推理应用。

    1,226
  • 2023-09-26
    139066

    云原生场景下高可用架构的最佳实践

    云原生场景下高可用架构的最佳实践

    139,066
  • 2023-02-22
    23245

    Flink CDC+Kafka 加速业务实时化

    阿里巴巴开发工程师,Apache Flink Committer 任庆盛,在 9 月 24 日 Apache Flink Meetup 的分享。

    23,245
  • 2024-05-15
    102501

    大语言模型推理提速,TensorRT-LLM 高性能推理实践

    大型语言模型(Large language models,LLM)是基于大量数据进行预训练的超大型深度学习模型,本文主要讲述TensorRT-LLM利用量化、In-Flight Batching、Attention、Graph Rewriting提升 LLM 模型推理效率。

    102,501
  • 2024-05-15
    142880

    深度剖析 RocketMQ 5.0,架构解析:云原生架构如何支撑多元化场景?

    了解 RocketMQ 5.0 的核心概念和架构概览;然后我们会从集群角度出发,从宏观视角学习 RocketMQ 的管控链路、数据链路、客户端和服务端如何交互;学习 RocketMQ 如何实现数据的存储,数据的高可用,如何利用云原生存储进一步提升竞争力。

    142,880
  • 1
    2
    3
    4
    ...
    36
    到第
    2/36