官方博客-第18页-阿里云开发者社区

  • 2025-02-20
    695

    破解 vLLM + DeepSeek 规模化部署的“不可能三角”

    vLLM 是一种便捷的大型语言模型(LLM)推理服务,旨在简化个人和企业用户对复杂模型的使用。通过 vLLM,用户可以轻松发起推理请求,享受高效、稳定的 LLM 服务。针对大规模部署 vLLM 的挑战,如大模型参数量、高效推理能力和上下文理解等,阿里云函数计算(FC)提供了 GPU 预留实例闲置计费功能,优化了性能、成本和稳定性之间的平衡。此外,FC 支持简便的部署流程和多种应用集成方式,帮助企业快速上线并管理 vLLM 服务。总结来说,vLLM 结合 FC 的解决方案为企业提供了强大的技术支持和灵活的部署选项,满足不同业务需求。

    695
  • 2025-03-21
    753

    解决隐式内存占用难题

    本文详细介绍了在云原生和容器化部署环境中,内存管理和性能优化所面临的挑战及相应的解决方案。

  • 2023-05-15
    7447

    消息队列之 MetaQ 和 Kafka 区别和优势详解

    本篇文章介绍MetaQ和Kafka这两个消息队列的区别和优势。

    7,447
  • 2024-05-15
    64104

    通义千问开源模型在PAI灵骏的最佳实践

    本文将展示如何基于阿里云PAI灵骏智算服务,在通义千问开源模型之上进行高效分布式继续预训练、指令微调、模型离线推理验证以及在线服务部署。

    64,104
  • 2024-05-15
    102416

    大语言模型推理提速,TensorRT-LLM 高性能推理实践

    大型语言模型(Large language models,LLM)是基于大量数据进行预训练的超大型深度学习模型,本文主要讲述TensorRT-LLM利用量化、In-Flight Batching、Attention、Graph Rewriting提升 LLM 模型推理效率。

    102,416
  • 2024-05-15
    109225

    深度剖析 RocketMQ 5.0,消息进阶:如何支撑复杂业务消息场景?

    本文主要学习 RocketMQ 的一致性特性,一致性对于交易、金融都是刚需。从大规模复杂业务出发,学习 RocketMQ 的 SQL 订阅、定时消息等特性。再从高可用的角度来看,这里更多的是大型公司对于高阶可用性的要求,如同城容灾、异地多活等。

    109,225
  • 2024-05-15
    738

    安全防御四部曲---检测实践方案 (多产品结合)

    本次方案主要是针对阿里云国际站客户,企业在实际使用阿里云的过程中如何做好运维检测的一些多产品结合的方案介绍。 本篇文章的重点会放在检测(Detection)部分,会具体介绍涉及使用产品配置,FAQ等等,同时对整体的理论框架进行简单的介绍,帮助大家更好理解本部分在运维工作中的分属情况,更好的建立整体性的概念。

    738
  • 2024-07-25
    14020

    通义灵码:AI 研发趋势与效果提升实践丨SDCon 全球软件技术大会演讲全文整理

    SDCon 全球软件技术大会上,阿里云通义灵码团队分享了关于 AI 辅助编码的最新研究与实践,随着 AIGC 技术的发展,软件研发领域将迎来智能化的新高度,助力 DevOps 流程优化,提升研发效率和研发幸福感。

    14,020
  • 2024-08-15
    11736

    动手实践:高效构建企业级AI搜索

    本文介绍了基于阿里云 Elasticsearch的AI搜索产品能力、业务价值、场景应用,以及搭建演示等。

    11,736
  • 1
    ...
    17
    18
    19
    ...
    60
    到第