官方博客-阿里云开发者社区

  • 2024-05-15
    3244

    为大模型工程提效,基于阿里云 ACK 的云原生 AI 工程化实践

    本文主要介绍了解析云原生 AI 所遇到的技术挑战和应对方案,随后介绍云原生 AI 领域的关键技术与架构细节,最后分享我们在 ACK 的相关经验及工程实践。

  • 2025-04-28
    898

    StrmVol 存储卷:解锁 K8s 对象存储海量小文件访问性能新高度

    本文介绍了阿里云容器服务(ACK)支持的StrmVol存储卷方案,旨在解决Kubernetes环境中海量小文件访问性能瓶颈问题。通过虚拟块设备与内核态文件系统(如EROFS)结合,StrmVol显著降低了小文件访问延迟,适用于AI训练集加载、时序日志分析等场景。其核心优化包括内存预取加速、减少I/O等待、内核态直接读取避免用户态切换开销,以及轻量索引快速初始化。示例中展示了基于Argo Workflows的工作流任务,模拟分布式图像数据集加载,测试结果显示平均处理时间为21秒。StrmVol适合只读场景且OSS端数据无需频繁更新的情况,详细使用方法可参考官方文档。

  • 102072

    阿里云 ACK One Serverless Argo 助力深势科技构建高效任务平台

    阿里云 ACK One Serverless Argo 助力深势科技构建高效任务平台

  • 2024-09-03
    7564

    一文详解容器技术简介和基本原理

    本文全面阐述了容器技术的发展历程、关键技术、架构和当前的行业生态,特别是容器技术在云环境中的应用和演进。

    7,564
  • 2024-05-15
    222324

    Kube Queue:Kubernetes 任务排队的利器

    Kube Queue:Kubernetes 任务排队的利器

    222,324
  • 2023-12-01
    1779

    Koordinator 助力云原生应用性能提升,小红书混部技术实践

    本文基于 2023 云栖大会上关于 Koordinator 分享的实录,介绍小红书通过规模化落地混部技术来大幅提升集群资源效能,降低业务资源成本。

    1,779
  • 2024-05-15
    102772

    大语言模型推理提速,TensorRT-LLM 高性能推理实践

    大型语言模型(Large language models,LLM)是基于大量数据进行预训练的超大型深度学习模型,本文主要讲述TensorRT-LLM利用量化、In-Flight Batching、Attention、Graph Rewriting提升 LLM 模型推理效率。

    102,772
  • OpenAI故障复盘 - 阿里云容器服务与可观测产品如何保障大规模K8s集群稳定性

    聚焦近日OpenAI的大规模K8s集群故障,介绍阿里云容器服务与可观测团队在大规模K8s场景下我们的建设与沉淀。以及分享对类似故障问题的应对方案:包括在K8s和Prometheus的高可用架构设计方面、事前事后的稳定性保障体系方面。

  • 2024-05-15
    576

    如何在数字世界复刻一个高还原、高拟真的“你”

    通过阿里云智能媒体服务IMS完成数字人形象训练、人声克隆定制,并使用Timeline实现视频合成及创作,打造一个“声形俱佳”的数字分身。

    576
  • 1
    2
    3
    4
    ...
    7
    到第
    1
    2
    3
    4
    5
    6
    7
    1/7