2024-07-09
555

阿里云百炼应用实践系列-基于LlamaIndex的文档问答助手

本文以百炼官方文档问答助手为例,介绍如何基于百炼平台打造基于LlamaIndex的RAG文档问答产品。我们基于百炼平台的底座能力,以官方帮助文档为指定知识库,搭建了问答服务,支持钉钉、Web访问。介绍了相关技术方案和主要代码,供开发者参考。

7057

OSS数据源一站式RAG最佳实践

本文介绍了如何使用OpenSearch LLM智能问答版通过OSS数据源一站式构建RAG系统。

2024-05-15
259

利用 KMS 对文本信息进行签名验签实践

通过阿里云的KMS产品针对文件或者证书文件进行签名验签,可以有效解决攻击者针对敏感文件、重要文件在传输过程中被篡改,其次可以实现证书双向认证过程中的证书合法性校验,真正做到传输链路安全。

259
2024-05-15
122

AIGC下一步:用AI再度重构或优化媒体处理

LiveVideoStackCon2023深圳站,阿里云视频云演讲分享

2024-05-15
427

Multi-Agent实践第6期:面向智能体编程:狼人杀在AgentScope

本期文章,我们会介绍一下AgentScope的一个设计哲学(Agent-oriented programming)

2023-06-25
10110

MaxCompute湖仓一体近实时增量处理技术架构揭秘

本文将介绍阿里云云原生大数据计算服务MaxCompute湖仓一体近实时增量处理技术架构的核心设计和应用场景。

10,110
2024-05-15
1426

你好,iLogtail 2.0

你好,iLogtail 2.0!

1,426
2024-05-15
408

vLLM部署Yuan2.0:高吞吐、更便捷

vLLM是UC Berkeley开源的大语言模型高速推理框架,其内存管理核心——PagedAttention、内置的加速算法如Continues Batching等,一方面可以提升Yuan2.0模型推理部署时的内存使用效率,另一方面可以大幅提升在实时应用场景下Yuan2.0的吞吐量。

2024-05-15
194

联合XTuner,魔搭社区全面支持数据集的长文本训练

XTuner和魔搭社区(SWIFT)合作引入了一项长序列文本训练技术,该技术能够在多GPU环境中将长序列文本数据分割并分配给不同GPU,从而减少每个GPU上的显存占用。通过这种方式,训练超大规模模型时可以处理更长的序列,提高训练效率。魔搭社区的SWIFT框架已经集成了这一技术,支持多种大模型和数据集的训练。此外,SWIFT还提供了一个用户友好的界面,方便用户进行训练和部署,并且支持评估功能。

1
...
7
8
9
...
16
到第
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
8/16