官方博客-第27页-阿里云开发者社区

  • 2024-05-15
    136183

    云原生场景下,AIGC 模型服务的工程挑战和应对

    本文介绍了在云原生场景下,AIGC 模型服务的工程挑战和Fluid 在云原生 AIGC 模型推理场景的优化。

  • 2024-05-15
    49982

    秒级弹性,探索弹性调度与虚拟节点如何迅速响应瞬时算力需求

    秒级弹性!探索弹性调度与虚拟节点如何迅速响应瞬时算力需求?

    49,982
  • 2024-05-15
    1464

    Koordinator v1.4 正式发布,为用户带来更多的计算负载类型和更灵活的资源管理机制

    Koordinator v1.4 正式发布!为用户带来更多的计算负载类型和更灵活的资源管理机制

    1,464
  • 2024-10-23
    707

    Serverless + AI 让应用开发更简单

    随着云计算和人工智能(AI)技术的飞速发展,企业对于高效、灵活且成本效益高的解决方案的需求日益增长。本文旨在探讨 Serverless 架构与 AI 技术的结合,如何通过 Serverless 函数计算和 AI 开发平台,助力企业简化应用开发流程,减少企业 AI 业务试错成本,加速业务创新,为企业业务发展提供无限可能。

  • 2024-11-06
    627

    比 Copilot 快两倍以上,在我的开源项目 AI Godot 桌宠中用通义灵码解决问题

    在我的开源项目 AI Godot 桌宠中用通义灵码解决问题。

  • 2025-02-20
    797

    破解 vLLM + DeepSeek 规模化部署的“不可能三角”

    vLLM 是一种便捷的大型语言模型(LLM)推理服务,旨在简化个人和企业用户对复杂模型的使用。通过 vLLM,用户可以轻松发起推理请求,享受高效、稳定的 LLM 服务。针对大规模部署 vLLM 的挑战,如大模型参数量、高效推理能力和上下文理解等,阿里云函数计算(FC)提供了 GPU 预留实例闲置计费功能,优化了性能、成本和稳定性之间的平衡。此外,FC 支持简便的部署流程和多种应用集成方式,帮助企业快速上线并管理 vLLM 服务。总结来说,vLLM 结合 FC 的解决方案为企业提供了强大的技术支持和灵活的部署选项,满足不同业务需求。

    797
  • 2025-03-21
    812

    解决隐式内存占用难题

    本文详细介绍了在云原生和容器化部署环境中,内存管理和性能优化所面临的挑战及相应的解决方案。

  • 2024-05-15
    93279

    阿里云云原生弹性方案,用弹性解决集群资源利用率难题

    本文主要介绍了通过弹性,实现成本优化,解决集群资源利用率难题。

    93,279
  • 2024-05-15
    424

    用消费级显卡微调属于自己的Agent

    本文为魔搭社区轻量级训练推理工具SWIFT微调实战教程系列

  • 1
    ...
    26
    27
    28
    ...
    36
    到第
    27/36