官方博客-阿里云开发者社区

  • 2025-11-17
    785

    深度解析 Android 崩溃捕获原理及从崩溃到归因的闭环实践

    崩溃堆栈全是 a.b.c?Native 错误查不到行号?本文详解 Android 崩溃采集全链路原理,教你如何把“天书”变“说明书”。RUM SDK 已支持一键接入。

    785
  • 2024-09-03
    7226

    一文详解容器技术简介和基本原理

    本文全面阐述了容器技术的发展历程、关键技术、架构和当前的行业生态,特别是容器技术在云环境中的应用和演进。

    7,226
  • 2024-05-15
    2792

    为大模型工程提效,基于阿里云 ACK 的云原生 AI 工程化实践

    本文主要介绍了解析云原生 AI 所遇到的技术挑战和应对方案,随后介绍云原生 AI 领域的关键技术与架构细节,最后分享我们在 ACK 的相关经验及工程实践。

  • 2025-11-13
    230

    重构一个类,JVM竟省下2.9G内存?

    通过重构核心类,将 `HashMap<Long, HashSet<String>>` 优化为 `Long2ObjectOpenHashMap<int[]>`,结合数据分布特征与紧凑存储,JVM 堆内存从 3.13GB 降至 211MB,降幅达 94%,验证了高效数据结构在海量场景下的巨大价值。

    230
  • 2024-05-15
    1023

    如何快速在钉钉群接入私有大模型

    利用阿里云计算巢Appflow,通过控制台配置即可顺利将您自己开发或微调的大模型接入钉钉或其他通信软件群聊,帮您解决以下各类场景的模型调用需求: 1. 在钉钉群接入自己微调的领域大模型做问答或智能答疑; 2. 微调后的大模型在钉钉群或其他群聊中共同测试效果 3. …

  • 2024-11-15
    612

    架构师的真内核

    本文旨在帮助大家深入理解技术、架构和团队领导力的本质,从而获得持续成长的方法。欢迎在文末留言,你觉得架构师需要具备的核心能力是什么?

    612
  • 2024-05-15
    102600

    大语言模型推理提速,TensorRT-LLM 高性能推理实践

    大型语言模型(Large language models,LLM)是基于大量数据进行预训练的超大型深度学习模型,本文主要讲述TensorRT-LLM利用量化、In-Flight Batching、Attention、Graph Rewriting提升 LLM 模型推理效率。

    102,600
  • 2024-05-15
    3945

    高并发架构设计三大利器:缓存、限流和降级

    软件系统有三个追求:高性能、高并发、高可用,俗称三高。本篇讨论高并发,从高并发是什么到高并发应对的策略、缓存、限流、降级等。

    3,945
  • 2024-05-15
    222169

    Kube Queue:Kubernetes 任务排队的利器

    Kube Queue:Kubernetes 任务排队的利器

    222,169
  • 1
    2
    3
    4
    ...
    11
    到第
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    1/11