官方博客-第22页-阿里云开发者社区

  • 2025-02-20
    614

    在IDE里使用DeepSeek-V3 和 DeepSeek-R1 满血版模型

    如何在IDE里使用DeepSeek-V3 和 DeepSeek-R1 满血版模型

  • 2025-02-25
    1103

    解锁 DeepSeek 安全接入、稳定运行新路径

    聚焦于企业部署 DeepSeek 的应用需求,本文介绍了模型权重下载及多种部署方案,还阐述了大模型应用落地的常见需求,帮助用户逐步提升模型应用效果。

  • 2025-03-14
    957

    大模型无缝切换,QwQ-32B和DeepSeek-R1 全都要

    通义千问最新推出的QwQ-32B推理模型,拥有320亿参数,性能媲美DeepSeek-R1(6710亿参数)。QwQ-32B支持在小型移动设备上本地运行,并可将企业大模型API调用成本降低90%以上。本文介绍了如何通过Higress AI网关实现DeepSeek-R1与QwQ-32B之间的无缝切换,涵盖环境准备、模型接入配置及客户端调用示例等内容。此外,还详细探讨了Higress AI网关的多模型服务、消费者鉴权、模型自动切换等高级功能,帮助企业解决TPS与成本平衡、内容安全合规等问题,提升大模型应用的稳定性和效率。

    957
  • 2025-04-03
    393

    结合多模态RAG和异步调用实现大模型内容

    文章探讨了如何利用多模态大模型和工程优化手段提升物流理赔业务效率。核心方案包括:通过多模态RAG技术实现图片查重,结合异步调用方法优化货损识别功能。

    393
  • 2023-12-01
    866

    MaxCompute 重装上阵,Global Zorder

    MaxCompute支持Global Zorder,使得整个表或者分区的数据在全局上能按照指定字段进行ZORDER排序,以便数据能有更好的聚集性。

    866
  • 2024-05-15
    109979

    FunASR 语音大模型在 Arm Neoverse 平台上的优化实践

    Arm 架构的服务器通常具备低功耗的特性,能带来更优异的能效比。相比于传统的 x86 架构服务器,Arm 服务器在相同功耗下能够提供更高的性能。这对于大模型推理任务来说尤为重要,因为大模型通常需要大量的计算资源,而能效比高的 Arm 架构服务器可以提供更好的性能和效率。

    109,979
  • 2024-05-15
    113336

    一文看懂如何做好 SQL 质量监控

    一文看懂如何做好 SQL 质量监控

    113,336
  • 2024-05-15
    1109

    LISA微调技术解析:比LoRA更低的显存更快的速度

    LISA是Layerwise Importance Sampling for Memory-Efficient Large Language Model Fine-Tuning的简写,由UIUC联合LMFlow团队于近期提出的一项LLM微调技术,可实现把全参训练的显存使用降低到之前的三分之一左右,而使用的技术方法却是非常简单。

    1,109
  • 2024-07-22
    16444

    超越流水线,企业研发规范落地新思路

    一文详解研发规范的目标、常见误区、选型方法与常见最佳实践。

    16,444
  • 1
    ...
    21
    22
    23
    ...
    40
    到第