官方博客-第32页-阿里云开发者社区

  • 2024-09-04
    469

    WASM性能分析-插桩方案

    本文结合了代码插桩和性能火焰图的技术,以 WebAssembly 为例介绍了性能分析的方法和相关实现。

    469
  • 2024-09-05
    377

    软件测试之道 -- 做一个有匠心的程序员

    作者一年前围绕设计模式与代码重构写了一篇《代码整洁之道 -- 告别码农,做一个有思想的程序员!》的文章。本文作为续篇,从测试角度谈程序员对软件质量的追求。

    377
  • 2024-09-30
    636

    iLogtail 进化论:重塑可观测采集的技术边界

    iLogtail 作为一款开创性的轻量级日志采集器,历经 13 载风雨,始终致力于高效地从多元化的数据源中萃取、处理可观测信息,并无缝传输至阿里云日志服务或各类日志分析平台。今年,适逢 iLogtail 开源两周年的里程碑时刻,我们将回顾 iLogtail 的技术演进之路,领略其不断突破边界、引领可观测采集未来的创新力量。

    636
  • 894

    拥抱Data+AI|B站引入阿里云DMS+X,利用AI赋能运营效率10倍提升

    本篇文章针对B站在运营场景中的痛点,深入探讨如何利用阿里云Data+AI解决方案实现智能问数服务,赋能平台用户和运营人员提升自助取数和分析能力,提高价值交付效率的同时为数据平台减负。

  • 2025-02-19
    140

    阿里云可观测 2025 年 1 月产品动态

    阿里云可观测 2025 年 1 月产品动态。

  • 2025-02-20
    695

    破解 vLLM + DeepSeek 规模化部署的“不可能三角”

    vLLM 是一种便捷的大型语言模型(LLM)推理服务,旨在简化个人和企业用户对复杂模型的使用。通过 vLLM,用户可以轻松发起推理请求,享受高效、稳定的 LLM 服务。针对大规模部署 vLLM 的挑战,如大模型参数量、高效推理能力和上下文理解等,阿里云函数计算(FC)提供了 GPU 预留实例闲置计费功能,优化了性能、成本和稳定性之间的平衡。此外,FC 支持简便的部署流程和多种应用集成方式,帮助企业快速上线并管理 vLLM 服务。总结来说,vLLM 结合 FC 的解决方案为企业提供了强大的技术支持和灵活的部署选项,满足不同业务需求。

    695
  • 2025-04-16
    1409

    MCP 正当时:FunctionAI MCP 开发平台来了!

    MCP 的价值是统一了 Agent 和 LLM 之间的标准化接口,有了 MCP Server 的托管以及开发态能力只是第一步,接下来重要的是做好 MCP 和 Agent 的集成,FunctionAI 即将上线 Agent 开发能力,敬请期待。

    1,409
  • 2025-05-23
    537

    MCP Server 实践之旅第 3 站:MCP 协议亲和性的技术解析

    本文将以 MCP Server 在函数计算平台的深度集成为研究载体,解构基于 SSE 长连接通信模型,剖析会话亲和、优雅升级等关键技术,揭示 Serverless 架构在 MCP 场景中的亲和性创新实践。

  • 2021-08-13
    2414

    用SLS配置日志关键字告警的N种方法

    本文主要介绍一种免运维,高性能,支持灵活配置的方案,使用SLS接入日志和告警。

    2,414
  • 1
    ...
    31
    32
    33
    ...
    75
    到第