官方博客-第32页-阿里云开发者社区

  • 2025-02-20
    617

    大模型推理服务全景图

    推理性能的提升涉及底层硬件、模型层,以及其他各个软件中间件层的相互协同,因此了解大模型技术架构的全局视角,有助于我们对推理性能的优化方案进行评估和选型。

    617
  • 2025-02-20
    686

    破解 vLLM + DeepSeek 规模化部署的“不可能三角”

    vLLM 是一种便捷的大型语言模型(LLM)推理服务,旨在简化个人和企业用户对复杂模型的使用。通过 vLLM,用户可以轻松发起推理请求,享受高效、稳定的 LLM 服务。针对大规模部署 vLLM 的挑战,如大模型参数量、高效推理能力和上下文理解等,阿里云函数计算(FC)提供了 GPU 预留实例闲置计费功能,优化了性能、成本和稳定性之间的平衡。此外,FC 支持简便的部署流程和多种应用集成方式,帮助企业快速上线并管理 vLLM 服务。总结来说,vLLM 结合 FC 的解决方案为企业提供了强大的技术支持和灵活的部署选项,满足不同业务需求。

    686
  • 2025-02-20
    607

    在IDE里使用DeepSeek-V3 和 DeepSeek-R1 满血版模型

    如何在IDE里使用DeepSeek-V3 和 DeepSeek-R1 满血版模型

  • 2025-06-03
    661

    端午出游高定:通义灵码+高德 MCP 10 分钟定制出游攻略

    本文介绍了如何使用通义灵码编程智能体与高德 MCP 2.0 制作北京端午3天旅行攻略页面。首先需下载通义灵码 AI IDE 并获取高德申请的 key,接着通过添加 MCP 服务生成 travel_tips.html 文件,最终在手机端查看已发布上线的攻略。此外还详细说明了利用通义灵码打造专属 MCP 服务的过程,包括开发计划、代码编写、部署及连接服务等步骤,并提供了自由探索的方向及相关资料链接。

  • 2023-04-14
    571

    如何在 Anolis 8 上构建基于 Nydus 和 Dragonfly 的镜像加速解决方案

    Nydus+Dragonfly 组合减少容器启动过程中镜像的拉取时间,提升集群间的镜像分发效率。

    571
  • 2023-12-01
    80156

    AI 时代的 GPU 生存工具包,每个开发人员必须知道的最低限度

    AI技术迎来了“百花齐放”的春天,这既是我们的挑战也是机会。而AI+千行百业创造了无限可能,也为独立开发者提供了大量的资源、支持以及学习经验的机会。本文分享一篇摘录自Hexmos 期刊的AI 时代的 GPU 生存工具包。

  • 2024-05-15
    176200

    阿里云 Serverless 异步任务处理系统在数据分析领域的应用

    本文主要介绍异步任务处理系统中的数据分析,函数计算异步任务最佳实践-Kafka ETL,函数计算异步任务最佳实践-音视频处理等。

    176,200
  • 2024-05-15
    112288

    20行代码,Serverless架构下用Python轻松搞定图像分类和预测

    本文将AI项目与Serverless架构进行结合,在Serverless架构下用20行Python代码搞定图像分类和预测。

    112,288
  • 2024-05-15
    112774

    在 GraalVM 静态编译下无侵入实现可观测探索

    在 GraalVM 静态编译下无侵入实现可观测探索

    112,774
  • 1
    ...
    31
    32
    33
    ...
    59
    到第