官方博客-第11页-阿里云开发者社区

  • 2025-01-16
    895

    现身说法,AI小白的大模型学习路径

    写这篇文章的初衷:作为一个AI小白,把我自己学习大模型的学习路径还原出来,包括理解的逻辑、看到的比较好的学习材料,通过一篇文章给串起来,对大模型建立起一个相对体系化的认知,才能够在扑面而来的大模型时代,看出点门道。

    895
  • 2025-05-23
    489

    MCP Server 实践之旅第 3 站:MCP 协议亲和性的技术解析

    本文将以 MCP Server 在函数计算平台的深度集成为研究载体,解构基于 SSE 长连接通信模型,剖析会话亲和、优雅升级等关键技术,揭示 Serverless 架构在 MCP 场景中的亲和性创新实践。

  • 2024-06-13
    1882

    使用KMS为Apollo配置中心敏感配置加密的最佳实践

    使用KMS为Apollo配置中心敏感配置加密的最佳实践

    1,882
  • 2024-07-30
    3481

    5 大场景上手通义灵码企业知识库问答

    通义灵码在企业版里还引入了一个超酷的新技能:RAG(Retrieval-Augmented Generation)检索增强生成的能力,本文就跟大家分享下企业知识库能帮开发者做些什么。

  • 2024-11-06
    1678

    基于开源框架Spring AI Alibaba快速构建Java应用

    本文旨在帮助开发者快速掌握并应用 Spring AI Alibaba,提升基于 Java 的大模型应用开发效率和安全性。

    1,678
  • 2025-02-20
    647

    破解 vLLM + DeepSeek 规模化部署的“不可能三角”

    vLLM 是一种便捷的大型语言模型(LLM)推理服务,旨在简化个人和企业用户对复杂模型的使用。通过 vLLM,用户可以轻松发起推理请求,享受高效、稳定的 LLM 服务。针对大规模部署 vLLM 的挑战,如大模型参数量、高效推理能力和上下文理解等,阿里云函数计算(FC)提供了 GPU 预留实例闲置计费功能,优化了性能、成本和稳定性之间的平衡。此外,FC 支持简便的部署流程和多种应用集成方式,帮助企业快速上线并管理 vLLM 服务。总结来说,vLLM 结合 FC 的解决方案为企业提供了强大的技术支持和灵活的部署选项,满足不同业务需求。

    647
  • 2025-04-24
    1049

    为什么一定要做Agent智能体?

    作者通过深入分析、理解、归纳,最后解答了“为什么一定要做Agent”这个问题。

  • 2025-05-12
    902

    如何在通义灵码里使用 MCP 能力

    通义灵码支持MCP工具使用,通过模型自主规划实现工具调用,深度集成魔搭MCP广场,涵盖2400+热门服务。提供STDIO和SSE两种通信模式,适用于不同场景需求。用户可通过智能体模式调用MCP工具,完成如网页内容抓取、天气查询等任务。文档详细介绍了服务配置、使用流程及常见问题解决方法,助力开发者高效拓展AI编码能力。

  • 2025-08-08
    455

    Flink 2.1 SQL:解锁实时数据与AI集成,实现可扩展流处理

    简介:本文整理自阿里云高级技术专家李麟在Flink Forward Asia 2025新加坡站的分享,介绍了Flink 2.1 SQL在实时数据处理与AI融合方面的关键进展,包括AI函数集成、Join优化及未来发展方向,助力构建高效实时AI管道。

  • 1
    ...
    10
    11
    12
    ...
    66
    到第