官方博客-第22页-阿里云开发者社区

  • 2025-03-11
    1655

    QwQ-32B一键部署,真正的0代码,0脚本,0门槛

    阿里云发布的QwQ-32B模型通过强化学习显著提升了推理能力,核心指标达到DeepSeek-R1满血版水平。用户可通过阿里云系统运维管理(OOS)一键部署OpenWebUI+Ollama方案,轻松将QwQ-32B模型部署到ECS,或连接阿里云百炼的在线模型。整个过程无需编写代码,全部在控制台完成,适合新手操作。

    1,655
  • 2024-05-15
    600

    AIGC下一步:用AI再度重构或优化媒体处理

    LiveVideoStackCon2023深圳站,阿里云视频云演讲分享

  • 2024-05-15
    165308

    OpenKruise v1.6 版本解读:增强多域管理能力

    OpenKruise 在 2024.3 发布了最新的 v1.6 版本(ChangeLog),本文对新版本的核心特性做整体介绍。

  • 2024-11-14
    600

    通义灵码 SWE-GPT:从 静态代码建模 迈向 软件开发过程长链推理

    在本文中,作者介绍了 Lingma SWE-GPT,一款专为解决复杂软件改进任务设计的开源大型语言模型系列。

    600
  • 2025-01-20
    648

    ACK 容器监控存储全面更新:让您的应用运行更稳定、更透明

    针对本地存储和 PVC 这两种容器存储使用方式,我们对 ACK 的容器存储监控功能进行了全新升级。此次更新完善了对集群中不同存储类型的监控能力,不仅对之前已有的监控大盘进行了优化,还针对不同的云存储类型,上线了全新的监控大盘,确保用户能够更好地理解和管理容器业务应用的存储资源。

    648
  • 2025-02-20
    799

    破解 vLLM + DeepSeek 规模化部署的“不可能三角”

    vLLM 是一种便捷的大型语言模型(LLM)推理服务,旨在简化个人和企业用户对复杂模型的使用。通过 vLLM,用户可以轻松发起推理请求,享受高效、稳定的 LLM 服务。针对大规模部署 vLLM 的挑战,如大模型参数量、高效推理能力和上下文理解等,阿里云函数计算(FC)提供了 GPU 预留实例闲置计费功能,优化了性能、成本和稳定性之间的平衡。此外,FC 支持简便的部署流程和多种应用集成方式,帮助企业快速上线并管理 vLLM 服务。总结来说,vLLM 结合 FC 的解决方案为企业提供了强大的技术支持和灵活的部署选项,满足不同业务需求。

    799
  • 2024-05-15
    136184

    云原生场景下,AIGC 模型服务的工程挑战和应对

    本文介绍了在云原生场景下,AIGC 模型服务的工程挑战和Fluid 在云原生 AIGC 模型推理场景的优化。

  • 2024-08-21
    1096

    用好通义灵码,让这款 AI 编码助手帮你做更多工作

    通义灵码提供了一系列快捷键和配置选项以增强开发体验。

  • 1
    ...
    21
    22
    23
    ...
    31
    到第
    22/31