官方博客-第21页-阿里云开发者社区

  • 2024-05-15
    601

    AIGC下一步:用AI再度重构或优化媒体处理

    LiveVideoStackCon2023深圳站,阿里云视频云演讲分享

  • 2024-05-15
    1205

    LISA微调技术解析:比LoRA更低的显存更快的速度

    LISA是Layerwise Importance Sampling for Memory-Efficient Large Language Model Fine-Tuning的简写,由UIUC联合LMFlow团队于近期提出的一项LLM微调技术,可实现把全参训练的显存使用降低到之前的三分之一左右,而使用的技术方法却是非常简单。

    1,205
  • 2024-10-18
    1046

    海量大模型如何一键部署上云,函数计算 x ModelScope 社区给出答案

    得益于阿里云函数计算的产品能力,魔搭 SwingDeploy 后的模型推理 API 服务默认具备极致弹性伸缩(缩零能力)、GPU 虚拟化(最小 1GB 显存粒度)、异步调用能力、按用付费、闲置计费等能力,这些能力帮助算法工程师大大加快了魔搭开源模型投入生产的生命周期。

  • 2024-11-14
    601

    通义灵码 SWE-GPT:从 静态代码建模 迈向 软件开发过程长链推理

    在本文中,作者介绍了 Lingma SWE-GPT,一款专为解决复杂软件改进任务设计的开源大型语言模型系列。

    601
  • 2025-02-20
    800

    破解 vLLM + DeepSeek 规模化部署的“不可能三角”

    vLLM 是一种便捷的大型语言模型(LLM)推理服务,旨在简化个人和企业用户对复杂模型的使用。通过 vLLM,用户可以轻松发起推理请求,享受高效、稳定的 LLM 服务。针对大规模部署 vLLM 的挑战,如大模型参数量、高效推理能力和上下文理解等,阿里云函数计算(FC)提供了 GPU 预留实例闲置计费功能,优化了性能、成本和稳定性之间的平衡。此外,FC 支持简便的部署流程和多种应用集成方式,帮助企业快速上线并管理 vLLM 服务。总结来说,vLLM 结合 FC 的解决方案为企业提供了强大的技术支持和灵活的部署选项,满足不同业务需求。

    800
  • 2023-02-21
    1335

    如何在Anolis OS上轻松使用 Kata 安全容器

    本篇文章我们将详细介绍怎么轻松在 Anolis OS 上使用 Kata Containers 安全容器

    1,335
  • 728

    如何有效降低产品级内存数据库快照尾延迟

    本文讲解内存键值对数据库在使用 fork 拍摄快照时引起的请求尾延迟激增问题如何解决的实践方案。

  • 2024-08-21
    1097

    用好通义灵码,让这款 AI 编码助手帮你做更多工作

    通义灵码提供了一系列快捷键和配置选项以增强开发体验。

  • 1
    ...
    20
    21
    22
    ...
    28
    到第
    21/28