阿里云百炼的模型怎么选择并体验

简介: 本模块为您提供大模型服务平台百炼中支持的模型类型,便于您快速根据自己的需求选择所需模型!

什么是大模型服务平台百炼

大模型服务平台百炼是一站式的企业专属大模型生产平台,基于通义基础大模型,提供企业专属大模型开发和应用的整套工具链。

  • 面向对象:企业、开发者及ISV的技术人员。
  • 核心能力:支持开箱即用的应用调用,大模型训练微调和一站式在线灵活部署。
  • 服务形式:通过API服务输出给客户,方便客户进行集成和使用专属大模型能力。
  • 应用编排:支持客户打通自己的业务能力API,使得客户可以将专属大模型能力结合进入自己的业务链路。

大模型服务平台百炼都提供哪些模型

大模型服务平台百炼不仅提供通义系列开源、闭源模型,还提供了第三方专属大模型,下面我们一起看看有哪些模型吧!

通义千问系列

说明:模型限流和免费额度请点击链接查看完整信息。

模型名称

模型介绍

应用场景

qwen-turbo 通义千问超大规模语言模型,支持中文、英文等不同语言输入。
  • 文字创作:撰写故事、公文、邮件、剧本和诗歌等。

  • 文本处理:润色文本和提取文本摘要等。

  • 编程辅助:编写和优化代码等。

  • 翻译服务:提供各类语言的翻译服务,如英语、日语、法语或西班牙语等。

  • 对话模拟:扮演不同角色进行交互式对话。

  • 数据可视化:图表制作和数据呈现等。

qwen-plus 通义千问超大规模语言模型增强版,支持中文、英文等不同语言输入。
qwen-max 通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入。

qwen-max-1201

将于2024年4月22日下线

通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入。
qwen-max-longcontext 通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入。
qwen-vl-plus 通义千问大规模视觉语言模型增强版。大幅提升细节识别能力和文字识别能力,支持超百万像素分辨率和任意长宽比规格的图像。在广泛的视觉任务上提供卓越的性能。
  • 看图做题;

  • 图文识别;

  • 增强分辨率;

qwen-vl-max 通义千问超大规模视觉语言模型。相比增强版,再次提升视觉推理能力和指令遵循能力,提供更高的视觉感知和认知水平。在更多复杂任务上提供最佳的性能。


通义千问开源系列

说明:模型限流和免费额度请点击链接查看完整信息。

模型名称

模型介绍

应用场景

qwen-vl-v1

以 Qwen-7B 语言模型初始化,添加图像模型,图像输入分辨率为448的预训练模型。
  • 支持英文、中文等多语言对话,端到端支持图片里中英双语的长文本识别;

  • 支持多图输入和比较,指定图片问答,多图文学创作等;

  • 通过中文开放域语言表达进行检测框标注;

qwen-vl-chat-v1 通义千问VL支持灵活的交互方式,包括多图、多轮问答、创作等能力的模型。
qwen1.5-72b-chat 通义千问1.5对外开源的72B规模参数量的经过人类指令对齐的chat模型。
  • 文字创作:撰写故事、公文、邮件、剧本和诗歌等。

  • 文本处理:润色文本和提取文本摘要等。

  • 编程辅助:编写和优化代码等。

qwen-72b-chat 通义千问对外开源的72B规模参数量的经过人类指令对齐的chat模型。
qwen-14b-chat 通义千问对外开源的14B规模参数量的经过人类指令对齐的chat模型。
qwen1.5-14b-chat 通义千问1.5对外开源的14B规模参数量的经过人类指令对齐的chat模型。
qwen1.5-7b-chat 通义千问1.5对外开源的7B规模参数量是经过人类指令对齐的chat模型。
qwen-7b-chat 通义千问对外开源的7B规模参数量的经过人类指令对齐的chat模型。
qwen-1.8b-longcontext-chat 通义千问对外开源的1.8B规模参数量的经过人类指令对齐的chat模型。
qwen-1.8b-chat 通义千问对外开源的1.8B规模参数量的经过人类指令对齐的chat模型。


通义万象系列

说明:模型限流和免费额度请点击链接查看完整信息。

模型名称

模型介绍

应用场景

wanx-v1 基于自研的Composer组合生成框架的AI绘画创作大模型,能够根据用户输入的文字内容,生成符合语义描述的不同风格的图像。通过知识重组与可变维度扩散模型,加速收敛并提升最终生成图片的效果, 结果自然、细节丰富。支持中英文双语输入。


  • 包括但不限于:水彩、油画、中国画、素描、扁平插画、二次元、3D卡通
wanx-style-repaint-v1 将输入的人物图像进行多种风格化的重绘生成,使新生成的图像在兼顾原始人物相貌的同时,带来不同风格的绘画效果。当前支持的风格有:复古漫画、3D童话、二次元、小清新、未来科技等。
  • 支持的风格有:复古漫画、3D童话、二次元、小清新、未来科技等。
wanx-background-generation-v2 可以基于输入的前景图像素材拓展生成背景信息,实现自然的光影融合效果,与细腻的写实画面生成。
  • 支持文本描述、图像引导等多种方式,同时支持对生成的图像智能添加文字内容。
  • 支持通用、家居和美妆分场景的多个预设模型。
  • 支持边缘引导元素生成,指定背景生成图片里有前景和背景特定内容元素引导生成。
wanx-sketch-to-image-lite 通义万相-涂鸦作画通过手绘任意内容加文字描述,即可生成精美的涂鸦绘画作品,作品中的内容在参考手绘线条的同时,兼顾创意性和趣味性。涂鸦作画支持扁平插画、油画、二次元、3D卡通和水彩5种风格,可用于创意娱乐、辅助设计、儿童教学等场景。
  • 通过手绘任意内容加文字描述,即可生成精美的涂鸦绘画作品,作品中的内容在参考手绘线条的同时,兼顾创意性和趣味性。

通用文本向量模型

说明:模型限流和免费额度请点击链接查看完整信息。

模型名称

模型介绍

应用场景

text-embedding-v1 支持多语种输出,包含中文、英语、西班牙语、法语、葡萄牙语、印尼语。
  • 多语言输出;

  • 自然语言翻译;

text-embedding-v2 支持多语种输出,包含中文、英语、西班牙语、法语、葡萄牙语、印尼语、日语、韩语、德语、俄罗斯语。

text-embedding-async-v1

支持多种语种输出,包含中文、英语、西班牙语、法语、葡萄牙语、印尼语。
text-embedding-async-v2 支持多种语种输出,包含中文、英语、西班牙语、法语、葡萄牙语、印尼语、日语、韩语、德语、俄罗斯语。

三方开源大模型

说明:模型限流和免费额度请点击链接查看完整信息。


Llama2大语言模型

模型名称

模型介绍

应用场景

llama2-7b-chat-v2

来自Meta开发并公开发布的大型语言模型(LLMs)。

该系列模型提供了多种参数大小(7B、13B和70B等)的版本,并同时提供了预训练和针对对话场景的微调版本。 Llama 2系列使用了2T token进行训练,相比于LLama多出40%,上下文长度从LLama的2048升级到4096,可以理解更长的文本, 在多个公开基准测试上超过了已有的开源模型。 采用了高质量的数据进行微调和基于人工反馈的强化学习训练,具有较高的可靠性和安全性。

阿里云百炼提供的llama2-7b-chat-v2和llama2-13b-chat-v2,分别为7B和13B规模的LLaMa2模型,针对对话场景微调优化后的版本。
llama2-13b-chat-v2

百川模型

模型名称

模型介绍

应用场景

baichuan2-7b-chat-v1

baichuan-13B/baichuan2-7B是由百川智能开发的一个开源的大规模预训练模型。基于Transformer结构,在大约1.2万亿tokens上训练的70亿参数模型,支持中英双语,上下文窗口长度为4096。在标准的中文和英文权威benchmark(C-EVAL/MMLU)上均取得同尺寸最好的效果。

百川模型2-7B对话版/百川模型2-13B对话版,支持message和prompt格式输入。
baichuan2-13b-chat-v1
baichuan-7b-v1

仅支持prompt格式输入。

MOSS开源对话语言模型

模型名称

模型介绍

应用场景

moss-moon-003-sft MOSS-MOON-003-SFT模型是复旦大学出品的大规模语言模型,它在灵积平台上的模型名称为"moss-moon-003-sft-v1"。MOSS是一个支持中英双语和多种插件的开源对话语言模型,MOSS-MOON系列模型具有160亿参数,在FP16精度下可在单张A100/A800或两张3090显卡运行,在INT4/8精度下可在单张3090显卡运行。MOSS基座语言模型在约七千亿中英文以及代码单词上预训练得到,后续经过对话指令微调、插件增强学习和人类偏好训练具备多轮对话能力及使用多种插件的能力。 支持中英双语和多种插件的开源对话语言模型。
moss-moon-003-base


ChatGLM开源双语对话语言模型


模型名称

模型介绍

应用场景

chatglm-6b-v2

ChatGLM2是开源中英双语对话模型ChatGLM-6B的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,ChatGLM2-6B引入了如下新特性:

  1. 更强大的性能:基于 ChatGLM 初代模型的开发经验,全面升级了 ChatGLM2-6B 的基座模型。ChatGLM2-6B 使用了GLM的混合目标函数,经过了 1.4T 中英标识符的预训练与人类偏好对齐训练,评测结果显示,相比于初代模型,ChatGLM2-6B 在 MMLU(+23%)、CEval(+33%)、GSM8K(+571%) 、BBH(+60%)等数据集上的性能取得了大幅度的提升,在同尺寸开源模型中具有较强的竞争力。
  2. 更长的上下文:基于FlashAttention技术,将基座模型的上下文长度(Context Length)由 ChatGLM-6B 的 2K 扩展到了 32K,并在对话阶段使用 8K 的上下文长度训练,允许更多轮次的对话。但当前版本的 ChatGLM2-6B 对单轮超长文档的理解能力有限,会在后续迭代升级中着重进行优化。
  3. 更高效的推理:基于Multi-Query Attention技术,ChatGLM2-6B 有更高效的推理速度和更低的显存占用:在官方的模型实现下,推理速度相比初代提升了 42%,INT4 量化下,6G 显存支持的对话长度由 1K 提升到了 8K。
该模型为ChatGLM2系列,仅支持prompt格式输入。
chatglm3-6b

ChatGLM3是ChatGLM 系列最新一代的开源模型,在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上,ChatGLM3-6B 引入了如下特性:

  1. 更强大的基础模型:ChatGLM3-6B 的基础模型 ChatGLM3-6B-Base 采用了更多样的训练数据、更充分的训练步数和更合理的训练策略。在语义、数学、推理、代码、知识等不同角度的数据集上测评显示,ChatGLM3-6B-Base 具有在 10B 以下的预训练模型中最强的性能。

  2. 更完整的功能支持:ChatGLM3-6B 采用了全新设计的Prompt 格式,除正常的多轮对话外。同时原生支持工具调用(Function Call)、代码执行(Code Interpreter)和 Agent 任务等复杂场景。

  3. 更全面的开源序列:除了对话模型 ChatGLM3-6B 外,还开源了基础模型 ChatGLM-6B-Base、长文本对话模型 ChatGLM3-6B-32K。

该模型为ChatGLM3系列,支持输入输出token合计是7500,其中单轮最大输出token为1500,单轮最大输入token为6000(如果超过该阈值按最后一次完整的对话进行截断),支持message和prompt格式输入,支持流式调用。


姜子牙通用大模型

模型名称

模型介绍

应用场景

ziya-llama-13b-v1

由IDEA研究院出品的大规模语言模型,它在灵积平台上的模型名称为"ziya-llama-13b-v1"。Ziya-LLaMA大模型V1是基于LLaMa的130亿参数的大规模预训练模型,具备翻译,编程,文本分类,信息抽取,摘要,文案生成,常识问答和数学计算等能力。目前Ziya-LLaMA通用大模型已完成大规模预训练、多任务有监督微调和人类反馈学习三阶段的训练过程。

姜子牙通用大模型V1是大规模预训练语言模型,支持中文英文等不同语言输入。


Dolly开源大语言模型

模型名称

模型介绍

应用场景

dolly-12b-v2

由Databricks出品的大规模语言模型,它在灵积平台上的模型名称为"dolly-12b-v2"。该模型是在pythia-12b的基础上,使用databricks-dolly-15k数据集微调得到的。数据集包括头脑风暴、分类、生成、问答、信息抽取等任务的语料。更多信息可以参考Dolly的开源repo

Dolly超大规模语言模型,支持多语言输入,V2版本是Databricks在pythia-12b的基础上微调得到的12B参数规模大模型。

BELLE开源中文对话大模型

模型名称

模型介绍

应用场景

belle-llama-13b-2m-v1

由BELLE出品的大规模语言模型,它在灵积平台上的模型名称为"belle-llama-13b-2m-v1"。BELLE(BE Large Language Model Engine),一款基于BLOOM和LLAMA针对中文优化、模型调优切仅使用由ChatGPT生成的数据,为中文指令提供更好的支持。

BELLE中文对话大规模语言模型,支持中文英文等不同语言输入。

元语功能型对话大模型V2

模型名称

模型介绍

应用场景

chatyuan-large-v2

是由元语智能出品的大规模语言模型,它在灵积平台上的模型名称为"chatyuan-large-v2"。ChatYuan-large-v2是一个支持中英双语的功能型对话语言大模型,是继ChatYuan系列中ChatYuan-large-v1开源后的又一个开源模型。ChatYuan-large-v2使用了和 v1版本相同的技术方案,在微调数据、人类反馈强化学习、思维链等方面进行了优化。

中英双语大语言模型。

BiLLa开源推理能力增强模型

模型名称

模型介绍

应用场景

billa-7b-sft-v1

开源的推理能力增强的中英双语 LLaMA 模型. 模型的主要特点:

  • 较大提升 LLaMA 的中文理解能力, 并尽可能减少对原始 LLaMA 英文能力的损伤;
  • 训练过程增加较多的任务型数据, 利用 ChatGPT 生成解析, 强化模型理解任务求解逻辑;
  • 全量参数更新, 追求更好的生成效果。

较大提升 LLaMA 的中文理解能力, 并尽可能减少对原始 LLaMA 英文能力的损伤。

以上就是大模型服务平台百炼中提供的模型,平台陆续会上新其他的模型,敬请关注!您可以通过访问大模型服务平台百炼控制台进入模型体验;

登录阿里云账号,访问阿里云百炼控制台,点击模型体验中心,选择需要体验的模型,输入promot,模型返回对应回复。最多支持一次选择3个模型进行对比体验哦~


image.png

同时平台也提供模型的API接口:https://help.aliyun.com/document_detail/2712809.html 访问该内容进行获取调用;


以上内容为本次的全部内容啦,您是否全部掌握了呢?快来一起留言互动打卡吧!


阿里云百炼官网网址

阿里云百炼控制台

相关实践学习
如何快速体验知识检索增强应用
在应用广场中您可以挑选智能体API应用、官方预置完整工程链路的知识检索增强(RAG)应用、流程编排应用,以及官方最佳实践的写作应用妙笔等,通过应用快速将通义千问系列等大语言模型能力接入到业务解决方案中。
相关文章
|
3月前
|
存储 人工智能 数据处理
无影云个人版,免费领取你的AI云电脑!
无影云个人版,利用先进的云计算技术,为用户提供全新的AI云电脑体验。无论是远程办公、数据处理还是视频会议,只需互联网接入即可享受无缝办公体验
201 11
|
7月前
|
存储 人工智能 弹性计算
阿里云第八代云服务器g8i实例介绍,可适用于在线音视频及AI相关应用
近日,阿里云第八代云服务器ECS g8i实例已经完成全新升级,g8i实例采用CIPU+飞天技术架构,搭载最新的Intel 第五代至强可扩展处理器(代号EMR),性能进一步大幅提升,同时拥有AMX加持的AI能力增强,并在全球范围率先支持TDX机密虚拟机能力,实现了AI增强和全面安全防护的两大特色优势,可适用于在线音视频及AI相关应用。本文对g8i实例做个介绍。
阿里云第八代云服务器g8i实例介绍,可适用于在线音视频及AI相关应用
|
6月前
|
域名解析 弹性计算 监控
使用云效将项目代码部署到云服务器ECS的体验评测
本文详述了使用阿里云云效和ECS搭建企业门户网站的解决方案,包括引导文档、部署流程、一键与手动部署的优缺点以及部署中可能遇到的问题。文中建议阿里云改进文档更新及时性,增强流程指引清晰度,提供更具体的错误信息,并增加实时监控、报警功能及性能优化建议。此外,呼吁建立更多用户交流平台以提升用户体验。
125 1
|
6月前
|
存储 弹性计算 人工智能
云服务器 ECS产品使用问题之如何试用神龙AI的AIACC
云服务器ECS(Elastic Compute Service)是各大云服务商阿里云提供的一种基础云计算服务,它允许用户租用云端计算资源来部署和运行各种应用程序。以下是一个关于如何使用ECS产品的综合指南。
|
7月前
|
运维 云计算 开发者
阿里云实例体验分享
阿里云开发者计划中使用高校身份申请了阿里云服务器,目前已经使用超过一周了。分享下这一周使用以来的亲身感受吧!
|
机器学习/深度学习 人工智能 安全
GPU云服务器部署应用体验
随着人工智能和深度学习的发展,GPU云服务器在数据处理和模型训练中发挥着越来越重要的作用。本报告将评测使用GPU云服务器搭建生成人物写真和ChatGLM对话大模型应用的效果,同时也是对上一次的初次测评的补充。
158289 45
GPU云服务器部署应用体验
|
弹性计算 关系型数据库 MySQL
ECS+RDS成就丝滑建站体验
在接触到阿里云之前,我对公有云甚至是云的概念都不是很明确。但现在已经可以独立快速搭建属于自己的个人博客了,今天来给大家分享建站心得。
ECS+RDS成就丝滑建站体验
|
弹性计算
阿里云最新产品手册——云基础产品与基础设施——计算——云服务器ECS——产品功能
阿里云最新产品手册——云基础产品与基础设施——计算——云服务器ECS——产品功能自制脑图
373 3
|
弹性计算 运维 Kubernetes
阿里云贾少天:阿里云ECS CloudOps新能力与最佳实践分享
2022年3月22日,【全新升级 阿里云ECS CloudOps 2.0来啦!】发布会正式播出,本次发布会上阿里云宣布CloudOps(云上自动化运维)套件全新升级,并发布了CloudOps云上自动化运维白皮书2.0版本。
阿里云贾少天:阿里云ECS CloudOps新能力与最佳实践分享
【阿里云】参与倚天云服务器评测
不支持老用户,你发给我干嘛,无效投放,还惹老用户生气 【阿里云】参与倚天云服务器评测,企业新用户可免费领取一台2核4G的倚天实例,免费试用3个月。完成评测任务有机会获得Beats耳机、充电宝及定制抱枕等奖品。立即参与戳:回td退订