官方博客-第21页-阿里云开发者社区

  • 2024-05-15
    49920

    秒级弹性,探索弹性调度与虚拟节点如何迅速响应瞬时算力需求

    秒级弹性!探索弹性调度与虚拟节点如何迅速响应瞬时算力需求?

    49,920
  • 2024-05-15
    2878

    阿里云大降价后,再谈“降本增效”

    2024年2月29日,阿里云宣布史上最大力度降价,引发行业对用云成本的热议。

  • 2024-05-15
    88916

    RocketMQ 流存储解析:面向流场景的关键特性与典型案例

    RocketMQ 流存储解析:面向流场景的关键特性与典型案例

    88,916
  • 2024-05-15
    1090

    人人都是AI大师 - Prompt工程

    prompt工程不需要复杂的编程知识,人人都可以使用prompt工程成为AI大师。本文只探讨prompt工程,不涉及模型训练等内容。只讨论文本生成,不涉及图像等领域。

    1,090
  • 2024-08-12
    8691

    统一多层网关好处多,阿里云云原生 API 网关打造全能型网关

    本文分享了作为一款全能型网关【云原生 API 网关】是如何帮助企业落地统一网关架构的。

    8,691
  • 2025-01-22
    510

    两步构建 AI 总结助手,实现智能文档摘要

    本方案将运用函数计算 FC,构建一套高可用性的 Web 服务,以满足用户多样化的需求。当用户发起请求时,系统内部会自动将包含文本和提示词的信息传递给百炼模型服务,百炼平台将根据后台配置调用相应的大模型服务,对文本数据进行智能识别与解析,最终将总结结果返回给用户。

  • 2025-01-26
    1217

    最近谈论 SSE 和 WebSocket 的人越来越多的原因

    实时通信已经成了大模型应用的标配。

  • 2025-02-20
    691

    破解 vLLM + DeepSeek 规模化部署的“不可能三角”

    vLLM 是一种便捷的大型语言模型(LLM)推理服务,旨在简化个人和企业用户对复杂模型的使用。通过 vLLM,用户可以轻松发起推理请求,享受高效、稳定的 LLM 服务。针对大规模部署 vLLM 的挑战,如大模型参数量、高效推理能力和上下文理解等,阿里云函数计算(FC)提供了 GPU 预留实例闲置计费功能,优化了性能、成本和稳定性之间的平衡。此外,FC 支持简便的部署流程和多种应用集成方式,帮助企业快速上线并管理 vLLM 服务。总结来说,vLLM 结合 FC 的解决方案为企业提供了强大的技术支持和灵活的部署选项,满足不同业务需求。

    691
  • 1
    ...
    20
    21
    22
    ...
    53
    到第