官方博客-阿里云开发者社区

  • 2024-05-15
    4993

    高并发架构设计三大利器:缓存、限流和降级

    软件系统有三个追求:高性能、高并发、高可用,俗称三高。本篇讨论高并发,从高并发是什么到高并发应对的策略、缓存、限流、降级等。

    4,993
  • 2025-04-28
    1796

    StrmVol 存储卷:解锁 K8s 对象存储海量小文件访问性能新高度

    本文介绍了阿里云容器服务(ACK)支持的StrmVol存储卷方案,旨在解决Kubernetes环境中海量小文件访问性能瓶颈问题。通过虚拟块设备与内核态文件系统(如EROFS)结合,StrmVol显著降低了小文件访问延迟,适用于AI训练集加载、时序日志分析等场景。其核心优化包括内存预取加速、减少I/O等待、内核态直接读取避免用户态切换开销,以及轻量索引快速初始化。示例中展示了基于Argo Workflows的工作流任务,模拟分布式图像数据集加载,测试结果显示平均处理时间为21秒。StrmVol适合只读场景且OSS端数据无需频繁更新的情况,详细使用方法可参考官方文档。

  • 2024-09-03
    7927

    一文详解容器技术简介和基本原理

    本文全面阐述了容器技术的发展历程、关键技术、架构和当前的行业生态,特别是容器技术在云环境中的应用和演进。

    7,927
  • 2023-09-26
    139385

    云原生场景下高可用架构的最佳实践

    云原生场景下高可用架构的最佳实践

    139,385
  • 2024-05-15
    3715

    为大模型工程提效,基于阿里云 ACK 的云原生 AI 工程化实践

    本文主要介绍了解析云原生 AI 所遇到的技术挑战和应对方案,随后介绍云原生 AI 领域的关键技术与架构细节,最后分享我们在 ACK 的相关经验及工程实践。

  • 102329

    阿里云 ACK One Serverless Argo 助力深势科技构建高效任务平台

    阿里云 ACK One Serverless Argo 助力深势科技构建高效任务平台

  • 2024-05-15
    102953

    大语言模型推理提速,TensorRT-LLM 高性能推理实践

    大型语言模型(Large language models,LLM)是基于大量数据进行预训练的超大型深度学习模型,本文主要讲述TensorRT-LLM利用量化、In-Flight Batching、Attention、Graph Rewriting提升 LLM 模型推理效率。

    102,953
  • 2024-05-15
    1781

    全景剖析阿里云容器网络数据链路(三)—— Terway ENIIP

    本文是[全景剖析容器网络数据链路]第三部分,主要介绍Kubernetes Terway ENIIP模式下,数据面链路的转转发链路。

    1,781
  • 2023-08-28
    21657

    探索AI时代的应用工程化架构演进,一人公司时代还有多远?

    当代AI来势汹汹,本文从AI的特点、对研发的挑战、AI的应用工程和场景分化等剖析了AI时代的应用工程化架构演进之路。

    21,657
  • 1
    2
    3
    4
    ...
    7
    到第
    1
    2
    3
    4
    5
    6
    7
    1/7