官方博客-第31页-阿里云开发者社区

  • 2024-11-06
    570

    比 Copilot 快两倍以上,在我的开源项目 AI Godot 桌宠中用通义灵码解决问题

    在我的开源项目 AI Godot 桌宠中用通义灵码解决问题。

  • 2024-11-14
    501

    通义灵码 SWE-GPT:从 静态代码建模 迈向 软件开发过程长链推理

    在本文中,作者介绍了 Lingma SWE-GPT,一款专为解决复杂软件改进任务设计的开源大型语言模型系列。

    501
  • 2025-01-06
    308

    OpenAI 宕机思考丨Kubernetes 复杂度带来的服务发现系统的风险和应对措施

    Kubernetes 体系基于 DNS 的服务发现为开发者提供了很大的便利,但其高度复杂的架构往往带来更高的稳定性风险。以 Nacos 为代表的独立服务发现系统架构简单,在 Kubernetes 中选择独立服务发现系统可以帮助增强业务可靠性、可伸缩性、性能及可维护性,对于规模大、增长快、稳定性要求高的业务来说是一个较理想的服务发现方案。希望大家都能找到适合自己业务的服务发现系统。

    308
  • 2025-01-20
    674

    1 行命令引发的Go应用崩溃

    这篇文章分析了Go编译时插桩工具导致go build -race竞态检测产生崩溃的原因。

    674
  • 2025-02-20
    616

    大模型推理服务全景图

    推理性能的提升涉及底层硬件、模型层,以及其他各个软件中间件层的相互协同,因此了解大模型技术架构的全局视角,有助于我们对推理性能的优化方案进行评估和选型。

    616
  • 2025-02-20
    685

    破解 vLLM + DeepSeek 规模化部署的“不可能三角”

    vLLM 是一种便捷的大型语言模型(LLM)推理服务,旨在简化个人和企业用户对复杂模型的使用。通过 vLLM,用户可以轻松发起推理请求,享受高效、稳定的 LLM 服务。针对大规模部署 vLLM 的挑战,如大模型参数量、高效推理能力和上下文理解等,阿里云函数计算(FC)提供了 GPU 预留实例闲置计费功能,优化了性能、成本和稳定性之间的平衡。此外,FC 支持简便的部署流程和多种应用集成方式,帮助企业快速上线并管理 vLLM 服务。总结来说,vLLM 结合 FC 的解决方案为企业提供了强大的技术支持和灵活的部署选项,满足不同业务需求。

    685
  • 2025-02-20
    606

    在IDE里使用DeepSeek-V3 和 DeepSeek-R1 满血版模型

    如何在IDE里使用DeepSeek-V3 和 DeepSeek-R1 满血版模型

  • 2025-02-21
    588

    K8S异常诊断之俺的内存呢

    本文讲述作者如何解决客户集群中出现的OOM(Out of Memory)和Pod驱逐问题。文章不仅详细记录了问题的发生背景、现象特征,还深入探讨了排查过程中的关键步骤和技术细节。

    588
  • 2025-02-28
    924

    1分钟集成DeepSeek满血版!搭建智能运维助手

    阿里云 AI 搜索开放平台面向企业及开发者提供丰富的组件化AI搜索服务,本文将重点介绍基于AI搜索开放平台内置的 DeepSeek-R1 系列大模型,如何搭建 Elasticsearch AI Assistant。

    924
  • 1
    ...
    30
    31
    32
    ...
    54
    到第