官方博客-第20页-阿里云开发者社区

  • Dify 开发者必看:如何破解 MCP 集成与 Prompt 迭代难题?

    Dify 是面向 AI 时代的开源大语言模型应用开发平台,GitHub Star 数超 10 万,为 LLMOps 领域增长最快项目之一。然而其在 MCP 协议集成、Prompt 敏捷调整及运维配置管理上存在短板。Nacos 3.0 作为阿里巴巴开源的注册配置中心,升级支持 MCP 动态管理、Prompt 实时变更与 Dify 环境变量托管,显著提升 Dify 应用的灵活性与运维效率。通过 Nacos,Dify 可动态发现 MCP 服务、按需路由调用,实现 Prompt 无感更新和配置白屏化运维,大幅降低 AI 应用开发门槛与复杂度。

  • 2023-09-27
    1428

    深入MaxCompute,人力家借助Information Schema合理治理费用

    本文将为大家带来MaxCompute与人力家客户案例深度解读。

  • 2024-05-15
    64128

    通义千问开源模型在PAI灵骏的最佳实践

    本文将展示如何基于阿里云PAI灵骏智算服务,在通义千问开源模型之上进行高效分布式继续预训练、指令微调、模型离线推理验证以及在线服务部署。

    64,128
  • 2024-05-15
    3239

    阿里云容器服务 ACK AI 助手正式上线

    期待已久!阿里云容器服务 ACK AI 助手正式上线

    3,239
  • 2024-05-15
    112858

    浅析MySQL代价估计器

    代价估计是优化其中非常重要的一个步骤,研究代价估计的原理和MySQL的具体实现对做SQL优化是非常有帮助。本文有案例有代码,由浅入深的介绍了代价估计的原理和MySQL的具体实现。

    112,858
  • 2024-05-15
    888

    如何“多快好省”地使用阿里云产品实现数据下载加速

    阿里云CDN下载加速解决方案旨在通过全球调度中心智能化地将客户端的下载请求精准调度到分布于全球的最优CDN边缘节点,同时依托海量带宽储备及强大的CDN控制逻辑让企业省心省力地为用户带来极速下载体验,助力企业获得更大的市场回报。

    888
  • 2024-05-15
    1134

    LISA微调技术解析:比LoRA更低的显存更快的速度

    LISA是Layerwise Importance Sampling for Memory-Efficient Large Language Model Fine-Tuning的简写,由UIUC联合LMFlow团队于近期提出的一项LLM微调技术,可实现把全参训练的显存使用降低到之前的三分之一左右,而使用的技术方法却是非常简单。

    1,134
  • 2024-05-15
    742

    联合XTuner,魔搭社区全面支持数据集的长文本训练

    XTuner和魔搭社区(SWIFT)合作引入了一项长序列文本训练技术,该技术能够在多GPU环境中将长序列文本数据分割并分配给不同GPU,从而减少每个GPU上的显存占用。通过这种方式,训练超大规模模型时可以处理更长的序列,提高训练效率。魔搭社区的SWIFT框架已经集成了这一技术,支持多种大模型和数据集的训练。此外,SWIFT还提供了一个用户友好的界面,方便用户进行训练和部署,并且支持评估功能。

  • 2024-10-11
    1018

    打造你的专属语音助手,基于函数计算托管 CosyVoice 语音模型

    今天分享一下,基于阿里云函数计算 FC 以及 CAP(云应用开发平台),极速托管专属的 CosyVoice 应用。并且我们提供了 API 调用方案以及镜像构建源码方便您根据自己的业务任意 DIY。

    1,018
  • 1
    ...
    19
    20
    21
    ...
    69
    到第