官方博客-第15页-阿里云开发者社区

  • 2024-06-24
    45988

    多环境镜像晋级/复用最佳实践

    本文介绍了在应用研发场景中,如何通过阿里云服务实现镜像构建部署的高效和安全。主要关注两个实践方法来确保“所发即所测”。

    45,988
  • 429

    内附原文|SIGMOD’24:百万核的智能调度,云数仓如何结合AI处理用户混合负载

    论文提出的Flux通过使用AI技术将短时和长时查询解耦进行自动弹性,解决了云数据仓库的性能瓶颈,同时支持了资源按需预留。Flux优于传统的方法,查询响应时间 (RT) 最多可减少75%,资源利用率提高19.0%,成本开销降低77.8%。

  • 60499

    突破大表瓶颈|小鹏汽车使用PolarDB实现百亿级表高频更新和实时分析

    PolarDB已经成为小鹏汽车应对TB级别大表标注、分析查询的"利器"。

  • 2024-05-24
    60855

    ClickHouse物化视图里常见的7个坑,点进看避坑指南

    一文解析ClickHouse物化视图

    60,855
  • 2024-05-16
    88173

    通义千问 2.5 “客串” ChatGPT4,看这篇让你分清楚

    这篇文章介绍了使用开源工具NextChat和Higress搭建的一个模拟ChatGPT和通义千问对话PK的测试场景。

    88,173
  • 2024-05-15
    73047

    通义灵码技术解析,打造 AI 原生开发新范式

    本文第一部分先介绍 AIGC 对软件研发的根本性影响,从宏观上介绍当下的趋势;第二部分将介绍 Copilot 模式,第三部分是未来软件研发 Agent 产品的进展。

  • 2024-05-15
    411

    联合XTuner,魔搭社区全面支持数据集的长文本训练

    XTuner和魔搭社区(SWIFT)合作引入了一项长序列文本训练技术,该技术能够在多GPU环境中将长序列文本数据分割并分配给不同GPU,从而减少每个GPU上的显存占用。通过这种方式,训练超大规模模型时可以处理更长的序列,提高训练效率。魔搭社区的SWIFT框架已经集成了这一技术,支持多种大模型和数据集的训练。此外,SWIFT还提供了一个用户友好的界面,方便用户进行训练和部署,并且支持评估功能。

  • 2024-05-15
    620

    LISA微调技术解析:比LoRA更低的显存更快的速度

    LISA是Layerwise Importance Sampling for Memory-Efficient Large Language Model Fine-Tuning的简写,由UIUC联合LMFlow团队于近期提出的一项LLM微调技术,可实现把全参训练的显存使用降低到之前的三分之一左右,而使用的技术方法却是非常简单。

  • 1
    ...
    14
    15
    16
    ...
    35
    到第
    15/35