官方博客-第16页-阿里云开发者社区

  • 2025-03-11
    1601

    QwQ-32B一键部署,真正的0代码,0脚本,0门槛

    阿里云发布的QwQ-32B模型通过强化学习显著提升了推理能力,核心指标达到DeepSeek-R1满血版水平。用户可通过阿里云系统运维管理(OOS)一键部署OpenWebUI+Ollama方案,轻松将QwQ-32B模型部署到ECS,或连接阿里云百炼的在线模型。整个过程无需编写代码,全部在控制台完成,适合新手操作。

    1,601
  • 2025-06-16
    569

    告别‘人海战术’!基于EvalScope 的文生图模型智能评测新方案

    生成式模型在文本生成图片等领域的快速发展,为社区带来了日新月异的诸多文生图模型。

  • 2024-05-15
    1182

    vLLM部署Yuan2.0:高吞吐、更便捷

    vLLM是UC Berkeley开源的大语言模型高速推理框架,其内存管理核心——PagedAttention、内置的加速算法如Continues Batching等,一方面可以提升Yuan2.0模型推理部署时的内存使用效率,另一方面可以大幅提升在实时应用场景下Yuan2.0的吞吐量。

    1,182
  • 775

    云+AI时代下,Alibaba Cloud Linux 进一步演进思考

    用好开源、做深开源、自研创新,打造全方位安全可信的服务器操作系统。

  • 2025-02-28
    1060

    使用A10单卡24G复现DeepSeek R1强化学习过程

    本文描述DeepSeek的三个模型的学习过程,其中DeepSeek-R1-Zero模型所涉及的强化学习算法,是DeepSeek最核心的部分之一会重点展示。

    1,060
  • 2025-03-21
    1173

    AI 推理场景的痛点和解决方案

    一个典型的推理场景面临的问题可以概括为限流、负载均衡、异步化、数据管理、索引增强 5 个场景。通过云数据库 Tair 丰富的数据结构可以支撑这些场景,解决相关问题,本文我们会针对每个场景逐一说明。

    1,173
  • 2025-06-30
    442

    基于 AI 网关和 llmaz,提升 vLLM 推理服务可用性和部署易用性的实践

    本文介绍了如何使用 llmaz 快速部署基于 vLLM 的大语言模型推理服务,并结合 Higress AI 网关实现流量控制、可观测性、故障转移等能力,构建稳定、高可用的大模型服务平台。

  • 2023-12-01
    2177

    [重磅更新]PolarDB-X V2.3 集中式和分布式一体化开源发布

    2023年云栖大会,PolarDB-X 正式发布 2.3.0版本,重点推出PolarDB-X标准版(集中式形态),将PolarDB-X分布式中的DN节点提供单独服务,支持paxos协议的多副本模式、lizard分布式事务引擎,可以100%兼容MySQL。同时在性能场景上,采用生产级部署和参数(开启双1 + Paxos多副本强同步),相比于开源MySQL 8.0.34,PolarDB-X在读写混合场景上有30~40%的性能提升,可以作为开源MySQL的最佳替代选择。

  • 1
    ...
    15
    16
    17
    ...
    49
    到第