官方博客-第19页-阿里云开发者社区

  • 2024-05-24
    47958

    “黏土风格”轻松拿捏,基于函数计算部署 ComfyUI实现AI生图

    使用阿里云函数计算FC,快速部署AI绘画工具ComfyUI,体验高质量图像生成。新用户可享180元试用额度,包括GPU、vCPU、内存和调用次数。开通FC和文件存储NAS,通过应用中心选择ComfyUI模板创建应用。

  • 102985

    Hologres+Flink企业级实时数仓核心能力介绍

    通过Hologres+Flink构建易用、统一的企业级实时数仓。

  • 2024-11-14
    530

    通义灵码 SWE-GPT:从 静态代码建模 迈向 软件开发过程长链推理

    在本文中,作者介绍了 Lingma SWE-GPT,一款专为解决复杂软件改进任务设计的开源大型语言模型系列。

    530
  • 2025-01-15
    466

    一键生成毛茸萌宠形象,基于函数计算极速部署 ComfyUI 生图系统

    本次方案将帮助大家实现使用阿里云产品函数计算FC,只需简单操作,就可以快速配置ComfyUI大模型,创建出你的专属毛茸茸萌宠形象。内置基础大模型+常用插件+部分 Lora,以风格化图像生成只需用户让体验键配置简单方便,后续您可以根据自己的需要更换需要的模型、Lora、增加插件。

  • 2025-02-20
    714

    破解 vLLM + DeepSeek 规模化部署的“不可能三角”

    vLLM 是一种便捷的大型语言模型(LLM)推理服务,旨在简化个人和企业用户对复杂模型的使用。通过 vLLM,用户可以轻松发起推理请求,享受高效、稳定的 LLM 服务。针对大规模部署 vLLM 的挑战,如大模型参数量、高效推理能力和上下文理解等,阿里云函数计算(FC)提供了 GPU 预留实例闲置计费功能,优化了性能、成本和稳定性之间的平衡。此外,FC 支持简便的部署流程和多种应用集成方式,帮助企业快速上线并管理 vLLM 服务。总结来说,vLLM 结合 FC 的解决方案为企业提供了强大的技术支持和灵活的部署选项,满足不同业务需求。

    714
  • 2025-06-30
    425

    基于 AI 网关和 llmaz,提升 vLLM 推理服务可用性和部署易用性的实践

    本文介绍了如何使用 llmaz 快速部署基于 vLLM 的大语言模型推理服务,并结合 Higress AI 网关实现流量控制、可观测性、故障转移等能力,构建稳定、高可用的大模型服务平台。

  • 2024-05-15
    64124

    通义千问开源模型在PAI灵骏的最佳实践

    本文将展示如何基于阿里云PAI灵骏智算服务,在通义千问开源模型之上进行高效分布式继续预训练、指令微调、模型离线推理验证以及在线服务部署。

    64,124
  • 2024-05-15
    93871

    使用KMS为MSE-Nacos敏感配置加密的最佳实践

    本文主要介绍通过KMS密钥管理服务产生的密钥对敏感的AK等数据进行加密之后可以有效解决泄漏带来的安全风险问题,其次通过KMS凭据托管的能力直接将MSE的主AK进行有效管理,保障全链路无AK的业务体验,真正做到安全、可控。

    93,871
  • 2024-05-15
    943

    Modelscope结合α-UMi:基于Modelscope的多模型协作Agent

    基于单个开源小模型的工具调用Agent,由于模型容量和预训练能力获取的限制,无法在推理和规划、工具调用、回复生成等任务上同时获得比肩大模型等性能。

  • 1
    ...
    18
    19
    20
    ...
    79
    到第