官方博客-第13页-阿里云开发者社区

  • 2025-07-18
    925

    淘天AB实验分析平台Fluss落地实践:更适合实时OLAP的消息队列

    淘天集团数据开发团队基于Fluss构建新一代实时数仓,解决数据消费冗余、探查困难及大State运维难题。Fluss融合列存与实时更新能力,支持列裁剪、KV点查、Delta Join及湖流一体,显著降低IO与计算资源消耗,提升作业稳定性与数据探查效率。已在淘天AB实验平台落地,覆盖搜索、推荐等核心业务,通过618大促验证,实现千万级流量、秒级延迟,资源消耗降低30%,State缩减超100TB。未来将持续深化湖仓架构,拓展AI场景应用。

  • 2024-12-05
    834

    我的程序突然罢工了|深入探究HSF调用异常,从死锁到活锁的全面分析与解决

    本文详细记录了作者在处理HSF调用异常问题的过程中,从初步怀疑死锁到最终发现并解决活锁问题的全过程。

    834
  • 2024-12-13
    1982

    动态链接的魔法:Linux下动态链接库机制探讨

    本文将深入探讨Linux系统中的动态链接库机制,这其中包括但不限于全局符号介入、延迟绑定以及地址无关代码等内容。

    1,982
  • 2025-01-26
    1259

    最近谈论 SSE 和 WebSocket 的人越来越多的原因

    实时通信已经成了大模型应用的标配。

  • 2023-02-22
    23174

    Flink CDC+Kafka 加速业务实时化

    阿里巴巴开发工程师,Apache Flink Committer 任庆盛,在 9 月 24 日 Apache Flink Meetup 的分享。

    23,174
  • 2024-09-23
    1123

    重磅!阿里云可观测产品家族全新升级,AI +数据双驱动,打造全栈可观测体系

    近日,阿里云可观测产品家族正式发布云监控 2.0,隶属产品日志服务 SLS、云监控 CMS、应用实时监控服务 ARMS 迎来重磅升级。

  • 2024-11-14
    1052

    万字干货|复杂表格多Agent方案:从LLM洞察、系统性 思考到实践经验总结

    笔者结合实践经验以近期在负责的复杂表格智能问答为切入点,结合大模型的哲学三问(“是谁、从哪里来、到哪里去”),穿插阐述自己对大模型的一些理解与判断,以及面向公共云LLM的建设模式思考,并分享软件设计+模型算法结合的一些研发实践经验。

    1,052
  • 2025-04-10
    559

    AI Infra之模型显存管理分析

    本文围绕某线上客户部署DeepSeek-R1满血版模型时进行多次压测后,发现显存占用一直上升,从未下降的现象,记录了排查过程。

    559
  • 2024-05-15
    1156

    vLLM部署Yuan2.0:高吞吐、更便捷

    vLLM是UC Berkeley开源的大语言模型高速推理框架,其内存管理核心——PagedAttention、内置的加速算法如Continues Batching等,一方面可以提升Yuan2.0模型推理部署时的内存使用效率,另一方面可以大幅提升在实时应用场景下Yuan2.0的吞吐量。

    1,156
  • 1
    ...
    12
    13
    14
    ...
    84
    到第