魔搭中文开源模型社区:模型即服务-大模型驱动的自然语言开放生态(上)

本文涉及的产品
交互式建模 PAI-DSW,5000CU*H 3个月
简介: 魔搭中文开源模型社区:模型即服务-

 

作者:黄非阿里巴巴达摩院语言技术实验室研究员

 

一、 层次化预训练模型底座

 

image.png

 

在8月份,阿里巴巴发布了通义预训练模型体系,包括NLP、CV和多模态等模型。在自然语言处理方面,通义Alice Mind预训练模型的底座包括语言理解、生成多语言、多模态等模型。除此之外,通义Alice Mind还有业界广泛应用的模型,比如BERT、GPT、DeBERTa、RoBERTa等等。

 

在此基础上,ModelScope社区针对自然语言,为下游任务提供了文本分类、智能对话翻译、文本纠错等模型。ModelScope社区针对不同行业,丰富了相应的行业模型,方便开发者使用。

 

ModelScope社区通过建立一站式的服务平台,包括模型部署、推理、上线服务,数据集、丰富文档等等,尽可能的方便开发者使用达摩院和其他合作版提供的最先进的模型能力。

 

image.png

 

阿里巴巴自然语言处理的预训练模型Alice Mind,为大家提供了多样模型。其中,通用预训练模型StructBERT,在中文理解CLUE Benchmark榜单上,总榜/分类/阅读理解三榜第一,入选“1o Leading Language Models For NLP In 2021"。

 

与此同时,生成式预训练模型PALM,支持条件式生成模型,在MS MARCO榜单上排名第一。相比中文SOTA,PALM的四个生成任务数据集平均提升1.1个点。

 

超大中文预训练模型PLUG,是首个统一自然语言理解和生成能力的超大中文文本预训练模型(270亿和2万亿参数)。目前,已初步建成PLUG大模型完整服务链路,大模型推理加速10+倍。

 

基于PLUG的多模态预训练模型mPLUG,支持端到端多模态预训练模型,在VQA

Challenge 2021中排名第一,并首次超越人类结果,被MIT Technology Review中国列为核心技术突破。

 

image.png

 

与此同时,阿里云提供的多模态的预训练模型底座mPLUG,充分利用了阿里云的计算环境。mPLUG可以针对于下游任务开发,简单进行一些翻译任务,代码商城、作文写作、百科问答、诗词对联等等。

 

 


相关文章
|
2月前
|
自然语言处理 索引
大模型开发: 解释自然语言处理(NLP)中的词嵌入。
**词嵌入技术在NLP中将文本转为数值表示,捕获词汇的语义和语法关系。过程包括:词汇索引、训练嵌入矩阵(如Word2Vec、GloVe、BERT)、文本向量化及向量输入到NLP模型(如情感分析、命名实体识别)。词嵌入是连接文本与机器理解的关键桥梁。**
30 2
|
4月前
|
机器学习/深度学习 存储 人工智能
【NLP】Datawhale-AI夏令营Day6-7打卡:大模型
【NLP】Datawhale-AI夏令营Day6-7打卡:大模型
|
4月前
|
人工智能 自然语言处理 运维
NLP国内外大模型汇总列表[文心一言、智谱、百川、星火、通义千问、盘古等等]
NLP国内外大模型汇总列表[文心一言、智谱、百川、星火、通义千问、盘古等等]
NLP国内外大模型汇总列表[文心一言、智谱、百川、星火、通义千问、盘古等等]
|
6天前
|
机器学习/深度学习 自然语言处理 算法框架/工具
python用于NLP的seq2seq模型实例:用Keras实现神经网络机器翻译
python用于NLP的seq2seq模型实例:用Keras实现神经网络机器翻译
13 5
|
6天前
|
人工智能 自然语言处理 Python
使用Python实现自然语言处理模型
使用Python实现自然语言处理模型
13 1
|
5月前
|
自然语言处理 Python
【Python自然语言处理】文本向量化的六种常见模型讲解(独热编码、词袋模型、词频-逆文档频率模型、N元模型、单词-向量模型、文档-向量模型)
【Python自然语言处理】文本向量化的六种常见模型讲解(独热编码、词袋模型、词频-逆文档频率模型、N元模型、单词-向量模型、文档-向量模型)
276 0
|
3月前
|
机器学习/深度学习 自然语言处理 算法
大模型在自然语言处理中的应用
大模型在自然语言处理中的应用
82 1
|
3月前
|
人工智能 自然语言处理 机器人
自然语言开发AI应用,利用云雀大模型打造自己的专属AI机器人
如今,大模型层出不穷,这为自然语言处理、计算机视觉、语音识别和其他领域的人工智能任务带来了重大的突破和进展。大模型通常指那些参数量庞大、层数深、拥有巨大的计算能力和数据训练集的模型。 但不能不承认的是,普通人使用大模型还是有一定门槛的,首先大模型通常需要大量的计算资源才能进行训练和推理。这包括高性能的图形处理单元(GPU)或者专用的张量处理单元(TPU),以及大内存和高速存储器。说白了,本地没N卡,就断了玩大模型的念想吧。 其次,大模型的性能往往受到模型调优和微调的影响。这需要对模型的超参数进行调整和优化,以适应特定任务或数据集。对大模型的调优需要一定的经验和专业知识,包括对深度学
自然语言开发AI应用,利用云雀大模型打造自己的专属AI机器人
|
4月前
|
机器学习/深度学习 存储 自然语言处理
【NLP】Datawhale-AI夏令营Day8-10打卡:大模型基础Transformer
【NLP】Datawhale-AI夏令营Day8-10打卡:大模型基础Transformer
|
4月前
|
机器学习/深度学习 数据采集 人工智能
【NLP】Datawhale-AI夏令营Day3打卡:Bert模型
【NLP】Datawhale-AI夏令营Day3打卡:Bert模型

相关产品

  • 自然语言处理