2024-05-15
314

联合XTuner,魔搭社区全面支持数据集的长文本训练

XTuner和魔搭社区(SWIFT)合作引入了一项长序列文本训练技术,该技术能够在多GPU环境中将长序列文本数据分割并分配给不同GPU,从而减少每个GPU上的显存占用。通过这种方式,训练超大规模模型时可以处理更长的序列,提高训练效率。魔搭社区的SWIFT框架已经集成了这一技术,支持多种大模型和数据集的训练。此外,SWIFT还提供了一个用户友好的界面,方便用户进行训练和部署,并且支持评估功能。

2024-07-29
591

阿里云百炼产品月刊【2024年7月】

阿里云百炼产品月刊【2024年7月】,涵盖本月产品和功能发布、市场活动和应用实践等内容,帮助您快速了解阿里云百炼产品的最新动态。

591
7169

OSS数据源一站式RAG最佳实践

本文介绍了如何使用OpenSearch LLM智能问答版通过OSS数据源一站式构建RAG系统。

2024-08-21
756

用好通义灵码,让这款 AI 编码助手帮你做更多工作

通义灵码提供了一系列快捷键和配置选项以增强开发体验。

2024-09-06
95

MacTalk 测评通义灵码,实现“微信表情”小功能

墨问西东创始人池建强分享了团队使用通义灵码的经验。

2024-05-15
921

快来与 CodeQwen1.5 结对编程

今天,来自 Qwen1.5 开源家族的新成员,代码专家模型 CodeQwen1.5开源!CodeQwen1.5 基于 Qwen 语言模型初始化,拥有 7B 参数的模型,其拥有 GQA 架构,经过了 ~3T tokens 代码相关的数据进行预训练,共计支持 92 种编程语言、且最长支持 64K 的上下文输入。效果方面,CodeQwen1.5 展现出了优秀的代码生成、长序列建模、代码修改、SQL 能力等,该模型可以大大提高开发人员的工作效率,并在不同的技术环境中简化软件开发工作流程。

2024-05-15
551

vLLM部署Yuan2.0:高吞吐、更便捷

vLLM是UC Berkeley开源的大语言模型高速推理框架,其内存管理核心——PagedAttention、内置的加速算法如Continues Batching等,一方面可以提升Yuan2.0模型推理部署时的内存使用效率,另一方面可以大幅提升在实时应用场景下Yuan2.0的吞吐量。

2024-09-02
305

阿里云百炼产品月刊【2024年8月】

阿里云百炼产品月刊【2024年8月】,涵盖本月产品和功能发布、应用实践等内容,帮助您快速了解阿里云百炼产品的最新动态。

305
1
...
8
9
10
...
13
到第
1
2
3
4
5
6
7
8
9
10
11
12
13
9/13