官方博客-第29页-阿里云开发者社区

  • 2025-03-14
    958

    大模型无缝切换,QwQ-32B和DeepSeek-R1 全都要

    通义千问最新推出的QwQ-32B推理模型,拥有320亿参数,性能媲美DeepSeek-R1(6710亿参数)。QwQ-32B支持在小型移动设备上本地运行,并可将企业大模型API调用成本降低90%以上。本文介绍了如何通过Higress AI网关实现DeepSeek-R1与QwQ-32B之间的无缝切换,涵盖环境准备、模型接入配置及客户端调用示例等内容。此外,还详细探讨了Higress AI网关的多模型服务、消费者鉴权、模型自动切换等高级功能,帮助企业解决TPS与成本平衡、内容安全合规等问题,提升大模型应用的稳定性和效率。

    958
  • 2025-03-21
    753

    解决隐式内存占用难题

    本文详细介绍了在云原生和容器化部署环境中,内存管理和性能优化所面临的挑战及相应的解决方案。

  • 2024-05-15
    887

    如何快速在钉钉群接入私有大模型

    利用阿里云计算巢Appflow,通过控制台配置即可顺利将您自己开发或微调的大模型接入钉钉或其他通信软件群聊,帮您解决以下各类场景的模型调用需求: 1. 在钉钉群接入自己微调的领域大模型做问答或智能答疑; 2. 微调后的大模型在钉钉群或其他群聊中共同测试效果 3. …

  • 2024-05-15
    1442

    零一万物开源Yi系列“理科状元”Yi-9B,消费级显卡可跑,魔搭社区最佳实践

    零一万物发布并开源了Yi系列中的“理科状元”——Yi-9B,可在魔搭体验

    1,442
  • 2024-05-15
    109980

    FunASR 语音大模型在 Arm Neoverse 平台上的优化实践

    Arm 架构的服务器通常具备低功耗的特性,能带来更优异的能效比。相比于传统的 x86 架构服务器,Arm 服务器在相同功耗下能够提供更高的性能。这对于大模型推理任务来说尤为重要,因为大模型通常需要大量的计算资源,而能效比高的 Arm 架构服务器可以提供更好的性能和效率。

    109,980
  • 2024-05-15
    1110

    LISA微调技术解析:比LoRA更低的显存更快的速度

    LISA是Layerwise Importance Sampling for Memory-Efficient Large Language Model Fine-Tuning的简写,由UIUC联合LMFlow团队于近期提出的一项LLM微调技术,可实现把全参训练的显存使用降低到之前的三分之一左右,而使用的技术方法却是非常简单。

    1,110
  • 2024-05-21
    57447

    函数计算助力领健信息为“看牙”注入 AI 活力

    口腔治疗+函数计算=效率提升🚀 领健作为业界领先的口腔机构,面向口腔诊所提供正畸算法,但早期的算法部署遇到较多问题,因此在对比了阿里云的多个云产品之后,最终选择了函数计算。 通过将 GPU 计算负载放到函数计算,领健技术团队达到了很好的降本效果,相比早前的按月持有 GPU 资源,函数计算的费用降低了 90% 左右,并大大提升了使用体验,实现了前所未有的敏捷性和效率。

  • 60869

    突破大表瓶颈|小鹏汽车使用PolarDB实现百亿级表高频更新和实时分析

    PolarDB已经成为小鹏汽车应对TB级别大表标注、分析查询的"利器"。

  • 1
    ...
    28
    29
    30
    ...
    64
    到第