官方博客-第22页-阿里云开发者社区

  • 2024-05-15
    1205

    LISA微调技术解析:比LoRA更低的显存更快的速度

    LISA是Layerwise Importance Sampling for Memory-Efficient Large Language Model Fine-Tuning的简写,由UIUC联合LMFlow团队于近期提出的一项LLM微调技术,可实现把全参训练的显存使用降低到之前的三分之一左右,而使用的技术方法却是非常简单。

    1,205
  • 2024-10-18
    1046

    海量大模型如何一键部署上云,函数计算 x ModelScope 社区给出答案

    得益于阿里云函数计算的产品能力,魔搭 SwingDeploy 后的模型推理 API 服务默认具备极致弹性伸缩(缩零能力)、GPU 虚拟化(最小 1GB 显存粒度)、异步调用能力、按用付费、闲置计费等能力,这些能力帮助算法工程师大大加快了魔搭开源模型投入生产的生命周期。

  • 2024-11-14
    601

    通义灵码 SWE-GPT:从 静态代码建模 迈向 软件开发过程长链推理

    在本文中,作者介绍了 Lingma SWE-GPT,一款专为解决复杂软件改进任务设计的开源大型语言模型系列。

    601
  • 2025-02-20
    800

    破解 vLLM + DeepSeek 规模化部署的“不可能三角”

    vLLM 是一种便捷的大型语言模型(LLM)推理服务,旨在简化个人和企业用户对复杂模型的使用。通过 vLLM,用户可以轻松发起推理请求,享受高效、稳定的 LLM 服务。针对大规模部署 vLLM 的挑战,如大模型参数量、高效推理能力和上下文理解等,阿里云函数计算(FC)提供了 GPU 预留实例闲置计费功能,优化了性能、成本和稳定性之间的平衡。此外,FC 支持简便的部署流程和多种应用集成方式,帮助企业快速上线并管理 vLLM 服务。总结来说,vLLM 结合 FC 的解决方案为企业提供了强大的技术支持和灵活的部署选项,满足不同业务需求。

    800
  • 2023-07-18
    131086

    手把手教你使用OSS-HDFS服务平替自建HDFS

    本文主要介绍了OSS-HDFS服务以及使用OSS-HDFS服务平替自建HDFS。

    131,086
  • 2024-05-15
    95455

    AIGC训练场景下的存储特征研究

    在今天这样以AIGC为代表的AI时代下,了解训练场景对于存储的具体诉求同样是至关重要的。本文将尝试解读WEKA的一个相关报告,来看看AIGC对于存储有哪些具体的性能要求。

  • 2024-05-15
    61457

    云效 Pipeline as Code 来了,这些场景,用好它效率翻倍

    可视化与YAML编排兼具,云效CI/CD流水线你愿意打几分?

  • 2024-06-13
    56151

    基于云效 AppStack,5 分钟搞定一个 AI 应用的开发和部署

    区别于传统的流水线工具,本实验将带你体验云效应用交付平台 AppStack,从应用视角,完成一个 AI 聊天应用的高效交付。

  • 1
    ...
    21
    22
    23
    ...
    32
    到第
    22/32