官方博客-第22页-阿里云开发者社区

  • 2024-06-18
    17060

    Dubbo3 服务原生支持 http 访问,兼具高性能与易用性

    本文展示了 Dubbo3 triple 协议是如何简化从协议规范与实现上简化开发测试、入口流量接入成本的,同时提供高性能通信、面向接口的易用性编码。

    17,060
  • 2024-08-12
    561

    5 大场景上手通义灵码企业知识库 RAG

    大家好,我是通义灵码,你的智能编程助手!今天就跟大家分享下企业知识库能帮开发者做些什么。

  • 2024-08-21
    1095

    用好通义灵码,让这款 AI 编码助手帮你做更多工作

    通义灵码提供了一系列快捷键和配置选项以增强开发体验。

  • 2024-11-06
    629

    比 Copilot 快两倍以上,在我的开源项目 AI Godot 桌宠中用通义灵码解决问题

    在我的开源项目 AI Godot 桌宠中用通义灵码解决问题。

  • 2024-11-14
    599

    通义灵码 SWE-GPT:从 静态代码建模 迈向 软件开发过程长链推理

    在本文中,作者介绍了 Lingma SWE-GPT,一款专为解决复杂软件改进任务设计的开源大型语言模型系列。

    599
  • 537

    手把手教学攻略:在Anolis OS上部署OpenVINO深度学习模型

    Anolis OS 作为国内首个正式提供 OpenVINO 开发包和镜像的服务器端操作系统,推动国内 AI 推理生态和能力的升级。

  • 2025-02-20
    799

    破解 vLLM + DeepSeek 规模化部署的“不可能三角”

    vLLM 是一种便捷的大型语言模型(LLM)推理服务,旨在简化个人和企业用户对复杂模型的使用。通过 vLLM,用户可以轻松发起推理请求,享受高效、稳定的 LLM 服务。针对大规模部署 vLLM 的挑战,如大模型参数量、高效推理能力和上下文理解等,阿里云函数计算(FC)提供了 GPU 预留实例闲置计费功能,优化了性能、成本和稳定性之间的平衡。此外,FC 支持简便的部署流程和多种应用集成方式,帮助企业快速上线并管理 vLLM 服务。总结来说,vLLM 结合 FC 的解决方案为企业提供了强大的技术支持和灵活的部署选项,满足不同业务需求。

    799
  • 2024-05-15
    660

    Yuan2.0大模型,联合向量数据库和Llama-index,助力检索增强生成技术

    本文将以Yuan2.0最新发布的Februa模型为例进行测试验证,用更小规模的模型达到更好的效果。

  • 2024-05-15
    1070

    从0-1的建设云上稳定性

    本文将从前后端的视角整体看下我们在云上稳定性治理的一些路径和经验。首先从平台的系统架构模型出发,站在全局视角看下整个平台的风险。

    1,070
  • 1
    ...
    21
    22
    23
    ...
    28
    到第
    22/28