官方博客-第19页-阿里云开发者社区

  • 2025-02-28
    1173

    进行GPU算力管理

    本篇主要简单介绍了在AI时代由‘大参数、大数据、大算力’需求下,对GPU算力管理和分配带来的挑战。以及面对这些挑战,GPU算力需要从单卡算力管理、单机多卡算力管理、多机多卡算力管理等多个方面发展出来的业界通用的技术。

    1,173
  • 2025-04-24
    1141

    为什么一定要做Agent智能体?

    作者通过深入分析、理解、归纳,最后解答了“为什么一定要做Agent”这个问题。

  • 2024-05-15
    1015

    某金融客户核心系统OceanBase数据库性能优化实践

    部分金融行业客户的传统核心使用OceanBase替换国外商业数据库的过程中,需要针对业务模型和数据模型进行重构,数据库压测提出了针对单交易耗时和TPS的硬性指标,以下内容是OceanBase数据库调优过程中的一些具体优化实践。

  • 2024-05-15
    1101

    【最佳实践】iLogtail使用Grok语法解析日志

    目标读者数字化系统开发运维(DevOps)工程师、稳定性工程师(SRE)、可观测平台运维人员等。背景介绍日志的形式往往多种多样,如果只是简单的读入日志数据,将很难进行搜索、分析及可视化。将原始的日志数据解析为结构化的数据,将大幅提升数据的可用性,方便用户进行快捷的“字段-值”的查询和分析。最基础的解...

    1,101
  • 2024-05-15
    1120

    LISA微调技术解析:比LoRA更低的显存更快的速度

    LISA是Layerwise Importance Sampling for Memory-Efficient Large Language Model Fine-Tuning的简写,由UIUC联合LMFlow团队于近期提出的一项LLM微调技术,可实现把全参训练的显存使用降低到之前的三分之一左右,而使用的技术方法却是非常简单。

    1,120
  • 2024-05-15
    729

    联合XTuner,魔搭社区全面支持数据集的长文本训练

    XTuner和魔搭社区(SWIFT)合作引入了一项长序列文本训练技术,该技术能够在多GPU环境中将长序列文本数据分割并分配给不同GPU,从而减少每个GPU上的显存占用。通过这种方式,训练超大规模模型时可以处理更长的序列,提高训练效率。魔搭社区的SWIFT框架已经集成了这一技术,支持多种大模型和数据集的训练。此外,SWIFT还提供了一个用户友好的界面,方便用户进行训练和部署,并且支持评估功能。

  • 60880

    突破大表瓶颈|小鹏汽车使用PolarDB实现百亿级表高频更新和实时分析

    PolarDB已经成为小鹏汽车应对TB级别大表标注、分析查询的"利器"。

  • 2024-07-16
    20459

    几百T的视频、图片数据进行更有效地存储和管理

    采用传统硬盘搭建存储方案,看起来成本低廉,但是再加上各种附加因素后却大幅攀升,而云存储厂商通常提供基于订阅的定价模型、一些免费服务和一定的折扣。现在,我们就来了解一下如何更省钱地使用云存储。

  • 1
    ...
    18
    19
    20
    ...
    63
    到第