官方博客-第12页-阿里云开发者社区

  • 2024-06-04
    874

    一键云部署:资源编排 ROS 轻松部署文本转语音系统 ChatTTS

    ChatTTS是一款针对对话场景的文本转语音模型,支持英中两种语言,训练数据超过10万小时。ChatTTS可通过WebUI和API访问。阿里云的资源编排服务(ROS)提供了一键部署ChatTTS到云端的方案,用户只需在ROS控制台配置模板参数,如区域和实例类型,即可完成部署。部署后,从资源栈输出获取ChatTTS服务地址。ROS利用IaC理念自动化部署云资源和应用,提高了部署效率和稳定性。

  • 2024-05-16
    88174

    通义千问 2.5 “客串” ChatGPT4,看这篇让你分清楚

    这篇文章介绍了使用开源工具NextChat和Higress搭建的一个模拟ChatGPT和通义千问对话PK的测试场景。

    88,174
  • 2024-05-15
    73047

    通义灵码技术解析,打造 AI 原生开发新范式

    本文第一部分先介绍 AIGC 对软件研发的根本性影响,从宏观上介绍当下的趋势;第二部分将介绍 Copilot 模式,第三部分是未来软件研发 Agent 产品的进展。

  • 2024-05-15
    411

    联合XTuner,魔搭社区全面支持数据集的长文本训练

    XTuner和魔搭社区(SWIFT)合作引入了一项长序列文本训练技术,该技术能够在多GPU环境中将长序列文本数据分割并分配给不同GPU,从而减少每个GPU上的显存占用。通过这种方式,训练超大规模模型时可以处理更长的序列,提高训练效率。魔搭社区的SWIFT框架已经集成了这一技术,支持多种大模型和数据集的训练。此外,SWIFT还提供了一个用户友好的界面,方便用户进行训练和部署,并且支持评估功能。

  • 2024-05-15
    620

    LISA微调技术解析:比LoRA更低的显存更快的速度

    LISA是Layerwise Importance Sampling for Memory-Efficient Large Language Model Fine-Tuning的简写,由UIUC联合LMFlow团队于近期提出的一项LLM微调技术,可实现把全参训练的显存使用降低到之前的三分之一左右,而使用的技术方法却是非常简单。

  • 2024-05-15
    13191

    Llama 3开源,魔搭社区手把手带你推理,部署,微调和评估

    Meta发布了 Meta Llama 3系列,是LLama系列开源大型语言模型的下一代。在接下来的几个月,Meta预计将推出新功能、更长的上下文窗口、额外的模型大小和增强的性能,并会分享 Llama 3 研究论文。

    13,191
  • 2024-05-15
    582

    从零构建现代深度学习框架(TinyDL-0.01)

    本文主要以一个Java工程师视角,阐述如何从零(无任何二三方依赖)构建一个极简(麻雀虽小五脏俱全)现代深度学习框架(类比AI的操作系统)。

    582
  • 2024-05-15
    667

    人人都是AI大师 - Prompt工程

    prompt工程不需要复杂的编程知识,人人都可以使用prompt工程成为AI大师。本文只探讨prompt工程,不涉及模型训练等内容。只讨论文本生成,不涉及图像等领域。

    667
  • 2024-05-15
    2194

    大模型推理优化实践:KV cache复用与投机采样

    在本文中,我们将详细介绍两种在业务中实践的优化策略:多轮对话间的 KV cache 复用技术和投机采样方法。我们会细致探讨这些策略的应用场景、框架实现,并分享一些实现时的关键技巧。

    2,194
  • 1
    ...
    11
    12
    13
    ...
    19
    到第
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    12/19