官方博客-第31页-阿里云开发者社区

  • 2024-09-03
    956

    面向OpenTelemetry的Golang应用无侵入插桩技术

    文章主要讲述了阿里云 ARMS 团队与程序语言与编译器团队合作研发的面向OpenTelemetry的Golang应用无侵入插桩技术解决方案,旨在解决Golang应用监控的挑战。

    956
  • 2024-10-10
    977

    Android & iOS 使用 ARMS 用户体验监控(RUM)的最佳实践

    本文主要介绍了 ARMS 用户体验监控的基本功能特性,并介绍了在几种常见场景下的最佳实践。

    977
  • 2024-10-28
    595

    Golang Agent 可观测性的全面升级与新特性介绍

    本文将逐个介绍 Golang Agent 的新增功能。

    595
  • 2024-10-31
    536

    基于 EventBridge + DashVector 打造 RAG 全链路动态语义检索能力

    本文将演示如何使用事件总线(EventBridge),向量检索服务(DashVector),函数计算(FunctionCompute)结合灵积模型服务[1]上的 Embedding API[2],来从 0 到 1 构建基于文本索引的构建+向量检索基础上的语义搜索能力。具体来说,我们将基于 OSS 文本文档动态插入数据,进行实时的文本语义搜索,查询最相似的相关内容。

    536
  • 2024-12-04
    212

    阿里云可观测 2024 年 11 月产品动态

    阿里云可观测 2024 年 11 月产品动态。

  • 2024-12-10
    272

    微服务引擎 MSE 及云原生 API 网关 2024 年 11 月产品动态

    微服务引擎 MSE 及云原生 API 网关 2024 年 11 月产品动态。

  • 2024-12-27
    366

    OpenAI全球宕机思考:谈谈可观测采集稳定性建设

    文章探讨了为什么大规模集群中的可观测性服务会产生大量API请求、API服务器为何对DNS解析至关重要以及故障恢复过程为何缓慢的原因。

    366
  • 2025-02-20
    799

    破解 vLLM + DeepSeek 规模化部署的“不可能三角”

    vLLM 是一种便捷的大型语言模型(LLM)推理服务,旨在简化个人和企业用户对复杂模型的使用。通过 vLLM,用户可以轻松发起推理请求,享受高效、稳定的 LLM 服务。针对大规模部署 vLLM 的挑战,如大模型参数量、高效推理能力和上下文理解等,阿里云函数计算(FC)提供了 GPU 预留实例闲置计费功能,优化了性能、成本和稳定性之间的平衡。此外,FC 支持简便的部署流程和多种应用集成方式,帮助企业快速上线并管理 vLLM 服务。总结来说,vLLM 结合 FC 的解决方案为企业提供了强大的技术支持和灵活的部署选项,满足不同业务需求。

    799
  • 727

    如何有效降低产品级内存数据库快照尾延迟

    本文讲解内存键值对数据库在使用 fork 拍摄快照时引起的请求尾延迟激增问题如何解决的实践方案。

  • 1
    ...
    30
    31
    32
    ...
    46
    到第