魔搭中文开源模型社区:模型即服务-GLM-130B:让每个人都能用上千亿模型(下)

本文涉及的产品
交互式建模 PAI-DSW,5000CU*H 3个月
简介: 魔搭中文开源模型社区:模型即服务

除此之外,在训练初期embedding的梯度和其余层有数量级的差异,可能对损失函数缩放不利。清华大学可以通过手动调小梯度的方式平衡embedding层梯度,对稳定训练非常有帮助,对loss几乎不影响。

 

image.png

 

如上图所示,清华大学对GLM-130B的英文语言模型能力进行了评估。其中,LAMBADA是一个广泛采用的通过预测句子末尾单词,评估达模型语言能力的数据集。GLM-130B取得了80.2的优异成绩,超过了GPT-3以及SOTA PaLM 540B。

 

image.png

 

在文语言理解能力上,清华大学在大规模多任务语言理解MMLU上进行了测试,发现GLM-130B的表现与GPT-3相当,并大幅超越BLOOM-176B。随着持续训练,水平尚未收敛,并将持续提高。

 

image.png

 

在中文方面,清华大学选取了CLUE和FewCLUE两个常用数据集进行了测试,可以发现GLM-130B全面超越了ERNIE TITAN 3.0260B,并在生成式阅读理解任务上取得了巨大的提升。

 

image.png

 

除此之外,清华大学近期探索了GLM-130B的模型量化。在保留中间结果度为FP16的情况下,GLM-130B的权重可以量化到INT8而没有任何损失,甚至以非常小的精度损失可以量化到INT4。

 

在无损性能的INT8量化下,GLM-130B支持8张V100以及8张3090服务器高效。在一点点的精度损失下,用户可以在4张3090甚至8张2080 Ti上进行高效推理。

 

image.png

 

如上图所示,在T4量化在8张RTX 3090时,GLM-130B仅需5秒生成128 Token。

 

image.png

 

目前,GLM-130B已开源模型代码,大家可以免费下载。GLM-130B在英文的语言建模和少样本语言理解任务上的表现基本和GPT-3持平,且优于目前开源的OPT和BLOOM。

 

GLM-130B在中文CLUE和FewCLUE数据集上的零样本能力明显优于,具有2600亿参数的ERINE Titan 3.0。

 

除此之外,GLM-130B适配了英伟达的Faster Transformer推理库。相比于常用的Megatron框架,用户可以在一台A100上实现最高2.5倍的推理加速性能。

相关文章
|
1月前
|
自然语言处理 数据可视化 物联网
Qwen1.5-MoE开源,魔搭社区推理训练最佳实践教程来啦
通义千问团队推出Qwen系列的首个MoE模型,Qwen1.5-MoE-A2.7B。
|
4月前
|
人工智能 自然语言处理 机器人
Jina AI 发布中英和英德双语 8K 向量模型,魔搭社区开源最佳实践!
在 Jina Embeddings 英语向量模型突破百万下载后,今天,Jina AI正式开源了两款双语向量模型:中英双语(Chinese-English)和英德双语(English-German)向量模型,这也是全球首次推出支持 8K 双语文本的开源向量模型。
|
5月前
|
数据可视化 PyTorch 算法框架/工具
零一万物Yi-34B-Chat 微调模型及量化版开源!魔搭社区最佳实践教程!
11月24日,零一万物基正式发布并开源微调模型 Yi-34B-Chat,可申请免费商用。同时,零一万物还为开发者提供了 4bit/8bit 量化版模型,Yi-34B-Chat 4bit 量化版模型可以直接在消费级显卡(如RTX3090)上使用。魔搭社区已支持下载、推理训练体验,并推出相关教程,欢迎大家来玩!
|
4月前
|
自然语言处理 物联网 Swift
零一万物开源Yi-VL多模态大模型,魔搭社区推理&微调最佳实践来啦!
近期,零一万物Yi系列模型家族发布了其多模态大模型系列,Yi Vision Language(Yi-VL)多模态语言大模型正式面向全球开源。
|
1天前
|
数据可视化 物联网 关系型数据库
幻方开源第二代MoE模型 DeepSeek-V2,魔搭社区推理、微调最佳实践教程
5月6日,幻方继1月份推出首个国产MoE模型,历时4个月,带来第二代MoE模型DeepSeek-V2,并开源了技术报告和模型权重,魔搭社区可下载体验。
|
10天前
|
自然语言处理 前端开发 Swift
社区供稿 | 中文llama3模型哪家强?llama3汉化版微调模型大比拼
随着llama3的发布,业界越来越多的针对其中文能力的微调版本也不断涌现出来,我们在ModelScope魔搭社区上,搜集到几款比较受欢迎的llama3中文版本模型,来从多个维度评测一下,其对齐后的中文能力到底如何? 微调后是否产生了灾难性遗忘问题。
|
16天前
|
安全 测试技术 Swift
Llama 3开源!魔搭社区手把手带你推理,部署,微调和评估
Meta发布了 Meta Llama 3系列,是LLama系列开源大型语言模型的下一代。在接下来的几个月,Meta预计将推出新功能、更长的上下文窗口、额外的模型大小和增强的性能,并会分享 Llama 3 研究论文。
Llama 3开源!魔搭社区手把手带你推理,部署,微调和评估
|
1月前
|
存储 自然语言处理 负载均衡
元象开源首个MoE大模型:4.2B激活参数,效果堪比13B模型!魔搭社区最佳实践来了!
近日,元象发布其首个Moe大模型 XVERSE-MoE-A4.2B, 采用混合专家模型架构 (Mixture of Experts),激活参数4.2B,效果即可媲美13B模型。该模型全开源,无条件免费商用,支持中小企业、研究者和开发者可在元象高性能“全家桶”中按需选用,推动低成本部署。
|
1月前
|
数据可视化 物联网 Swift
澜舟科技开源孟子3-13B大模型,魔搭社区推理训练最佳实践!
4月1日,澜舟科技宣布开源Mengzi3-13B大模型,对学术研究完全开放,同时支持免费商用。
|
2月前
|
人工智能 知识图谱 Windows
Mistral 7B v0.2 基础模型开源,魔搭社区微调教程和评测来啦!
Mistral AI在3月24日突然发布并开源了 Mistral 7B v0.2模型,有如下几个特点

热门文章

最新文章