官方博客-第26页-阿里云开发者社区

  • 2024-05-15
    3559

    深度剖析 RocketMQ 5.0,流存储:流场景的诉求是什么?

    本文将从使用的角度出发,来更详细的展示一下流存储的场景,看看它和业务消息的场景有哪些区别。 RocketMQ 5.0 面向流存储的场景,提供了哪些特性。再结合两个数据集成的案例,来帮助大家了解流存储的用法。

    3,559
  • 77948

    【AAAI 2024】MuLTI:高效视频与语言理解

    多模态理解模型具有广泛的应用,比如多标签分类、视频问答(videoQA)和文本视频检索等。现有的方法已经在视频和语言理解方面取得了重大进展,然而,他们仍然面临两个巨大的挑战:无法充分的利用现有的特征;训练时巨大的GPU内存消耗。我们提出了MuLTI,这是一种高度准确高效的视频和语言理解模型,可以实现高效有效的特征融合和对下游任务的快速适应。本文详细介绍基于MuLTI实现高效视频与语言理解。

  • 2024-05-15
    88691

    RocketMQ 流存储解析:面向流场景的关键特性与典型案例

    RocketMQ 流存储解析:面向流场景的关键特性与典型案例

    88,691
  • 2024-05-15
    231

    用消费级显卡微调属于自己的Agent

    本文为魔搭社区轻量级训练推理工具SWIFT微调实战教程系列

  • 2024-05-15
    222

    元象开源首个MoE大模型:4.2B激活参数,效果堪比13B模型,魔搭社区最佳实践来了

    近日,元象发布其首个Moe大模型 XVERSE-MoE-A4.2B, 采用混合专家模型架构 (Mixture of Experts),激活参数4.2B,效果即可媲美13B模型。该模型全开源,无条件免费商用,支持中小企业、研究者和开发者可在元象高性能“全家桶”中按需选用,推动低成本部署。

  • 2024-05-15
    13194

    Nacos 安全零信任实践

    本文将介绍如何基于安全零信任的理念来保证 Nacos 的数据安全。

    13,194
  • 2024-05-15
    435

    联合XTuner,魔搭社区全面支持数据集的长文本训练

    XTuner和魔搭社区(SWIFT)合作引入了一项长序列文本训练技术,该技术能够在多GPU环境中将长序列文本数据分割并分配给不同GPU,从而减少每个GPU上的显存占用。通过这种方式,训练超大规模模型时可以处理更长的序列,提高训练效率。魔搭社区的SWIFT框架已经集成了这一技术,支持多种大模型和数据集的训练。此外,SWIFT还提供了一个用户友好的界面,方便用户进行训练和部署,并且支持评估功能。

  • 2024-06-03
    41243

    计算机英文教材太难啃,Higress 和通义千问帮你

    英文技术内容翻译难于理解,如何跨语言学习?通义千问结合 Higress 的多模型协议转换能力,可以通过配置插件获得推理模型基于内容理解后的精准翻译,点击本文手把手教你如何配置。

    41,243
  • 1
    ...
    25
    26
    27
    ...
    37
    到第
    26/37