官方博客-第17页-阿里云开发者社区

  • 2025-02-20
    731

    破解 vLLM + DeepSeek 规模化部署的“不可能三角”

    vLLM 是一种便捷的大型语言模型(LLM)推理服务,旨在简化个人和企业用户对复杂模型的使用。通过 vLLM,用户可以轻松发起推理请求,享受高效、稳定的 LLM 服务。针对大规模部署 vLLM 的挑战,如大模型参数量、高效推理能力和上下文理解等,阿里云函数计算(FC)提供了 GPU 预留实例闲置计费功能,优化了性能、成本和稳定性之间的平衡。此外,FC 支持简便的部署流程和多种应用集成方式,帮助企业快速上线并管理 vLLM 服务。总结来说,vLLM 结合 FC 的解决方案为企业提供了强大的技术支持和灵活的部署选项,满足不同业务需求。

    731
  • 2025-07-10
    741

    用 AI + 高德地图 MCP,3 小时做出杭州美食地图

    本文记录了一次从灵光一现到快速落地的 AI + 地图服务实践,通过结合 Cursor 与高德 MCP 地图服务平台,作者仅用几个小时就实现了一个可交互、可筛选、可推荐的杭州美食地图应用。

    741
  • 2025-08-18
    500

    基于 EventBridge 构筑 AI 领域高效数据集成方案

    本文深入探讨了AI时代数据处理的变革与挑战,分析了事件驱动架构(EventBridge)在AI数据处理中的技术优势,并结合实践案例,展示了其在多源数据接入、向量数据库优化、智能数据转换等方面的应用价值。

  • 2024-05-15
    96551

    PolarDB-X 开源 | 基于Paxos的MySQL三副本

    PolarDB-X 作为PolarDB分布式版,是阿里巴巴自主设计研发的高性能云原生分布式数据库产品,采用 Shared-nothing 与存储分离计算架构,支持集中式和分布式一体化形态,具备金融级数据高可用、分布式水平扩展、混合负载、低成本存储和极致弹性等能力,坚定以兼容MySQL开源生态构建分布式能力,为用户提供高吞吐、大存储、低延时、易扩展和超高可用的云时代数据库服务。

  • 2024-05-15
    1142

    LISA微调技术解析:比LoRA更低的显存更快的速度

    LISA是Layerwise Importance Sampling for Memory-Efficient Large Language Model Fine-Tuning的简写,由UIUC联合LMFlow团队于近期提出的一项LLM微调技术,可实现把全参训练的显存使用降低到之前的三分之一左右,而使用的技术方法却是非常简单。

    1,142
  • 9132

    基于RAG搭建企业级知识库在线问答

    本文介绍如何使用搜索开发工作台快速搭建基于RAG开发链路的知识库问答应用。

  • 2024-08-16
    8763

    让X不断延伸, 从跨AZ到跨Region再到跨Cloud

    本文从“空间”这一维度,聊一聊PolarDB-X在跨空间部署能力上的不断发展和延伸,以及在不同空间范围下的高可用和容灾能力,并着重介绍一下最新的产品能力——GDN(Global Database Network)。

    8,763
  • 2024-09-27
    847

    跟着iLogtail学习容器运行时与K8s下日志采集方案

    iLogtail 作为开源可观测数据采集器,对 Kubernetes 环境下日志采集有着非常好的支持,本文跟随 iLogtail 的脚步,了解容器运行时与 K8s 下日志数据采集原理。

    847
  • 2024-11-06
    1728

    Serverless 微服务治理神器: 阿里云 SAE 全链路灰度揭秘

    SAE 会继续致力于为用户提供极简易用、成本低廉、功能强大的 Serverless 应用全托管平台:“我们希望让用户做的更少而收获更多,通过 Serverless 化,深度用云就像用水电煤一样简单”。

    1,728
  • 1
    ...
    16
    17
    18
    ...
    64
    到第