大佬出走后首个发布!Stability官宣代码模型Stable Code Instruct 3B

简介: Stability AI发布Stable Code Instruct 3B,一款高效代码模型,参数量仅30亿却在多编程语言基准测试中表现媲美70亿至150亿参数模型。该模型专为代码补全、逻辑推理等任务设计,其指令优化版提供直观交互,提升开发效率。团队通过Hugging Face公开模型权重,支持复现与应用。在Multi-PL基准和MT-Bench测试中表现出色,即使面对更大数据训练的模型也能保持高效性能。量化版本确保兼容性和低延迟应用。

微信图片_20240224080954.jpg
近日,全球知名人工智能公司Stability AI重磅发布了其新一代代码语言模型系列中的首款产品——Stable Code,并同步推出了针对指令交互优化的版本Stable Code Instruct 3B。这款新颖而高效的代码模型凭借其卓越的表现,在多项编程基准测试中展现出了不俗的实力,特别是在参数量较少的情况下,它与更大规模的70亿至150亿参数模型相媲美,甚至在流行的多编程语言(Multi-PL)基准测试中达到了当前最先进水平。

Stable Code系列作为通用型基础代码语言模型,旨在服务于多种软件工程相关的任务,包括但不限于代码补全、逻辑推理、数学运算以及其他基于编程的任务。同时,Stable Code Instruct版本则专为通过自然对话界面执行问答与指令驱动任务而设计,让用户能够以更加直观的方式与模型交流互动,极大地提升了用户体验与工作效率。

Stable Code项目背后的团队细致入微地介绍了用于训练这两个模型的数据集及其构建过程。值得一提的是,为了确保研究成果可复现及广泛使用,他们通过Hugging Face平台公开了这两个模型的权重,供全球研究者与开发者自由下载和应用。技术报告中详尽展示了对这两种模型的全面评估,涉及多语言编程基准测试以及特别关注多轮对话能力的MT基准测试。

报告显示,尽管Stable Code模型在参数量上仅为30亿级别,远小于诸如Code Llama等高达70亿参数或StarCoder 15B这样拥有150亿参数的大型模型,但在各主流编程语言上的表现却能与之比肩,尤其是在代码补全任务上展现出了极强的能力。而StarCoder v2这一基于更多数据训练的新款模型虽然总体性能略胜于Stable Code 3B,但这无疑凸显了Stable Code在相对较小参数规模下的高效率和优异性能。

对于Stable Code Instruct而言,其在经过指令调优后的表现同样出色。在多编程语言(Multi-PL)基准测试中,相比于其他同等级别参数量的指令调优模型,Stable Code Instruct 3B的成绩遥遥领先,显示出强大的代码理解和生成能力。此外,在更复杂的Fill in the Middle(FIM)代码补全任务以及聚焦多轮对话挑战的MT-Bench编码问题评测中,Stable Code Instruct也展现出顶尖水准。

考虑到实际应用环境中的速度和内存需求,Stability AI团队不仅提供了量化版本的Stable Code模型,还保证了它们与广泛应用的推理库如llama.cpp及Apple MLX的高度兼容性。通过对模型进行量化处理,用户可以在各种边缘设备上实现更高的吞吐率,同时减小存储空间占用和计算资源需求,这对于需要实时响应和低延迟操作的代码编辑工具尤为关键。

论文地址:https://static1.squarespace.com/static/6213c340453c3f502425776e/t/6601c5713150412edcd56f8e/1711392114564/Stable_Code_TechReport_release.pdf

目录
相关文章
|
7月前
|
自然语言处理 前端开发 物联网
社区供稿 |【中文Llama-3】Chinese-LLaMA-Alpaca-3开源大模型项目正式发布
Chinese-LLaMA-Alpaca-3开源大模型项目正式发布,开源Llama-3-Chinese-8B(基座模型)和Llama-3-Chinese-8B-Instruct(指令/chat模型)
|
7月前
|
自然语言处理 开发者 异构计算
社区供稿 | Llama3-8B中文版!OpenBuddy发布新一代开源中文跨语言模型
此次发布的是在3天时间内,我们对Llama3-8B模型进行首次中文跨语言训练尝试的结果:OpenBuddy-Llama3-8B-v21.1-8k。
|
7月前
|
人工智能 JSON 搜索推荐
社区供稿 | GLM-4适配ModelScope-Agent最佳实践
GLM-4是由智谱 AI 发布的新一代基座大模型。
|
2月前
|
数据采集 API 决策智能
华为诺亚联合中科大发布工具调用模型ToolACE,效果持平GPT-4获开源第一
 【10月更文挑战第10天】华为诺亚方舟实验室与中国科学技术大学合作推出ToolACE,一种自进化合成过程的工具调用模型。ToolACE通过多智能体交互和双重验证系统生成准确、复杂、多样化的工具学习数据,显著提升大型语言模型(LLM)的功能调用能力。实验结果显示,使用ToolACE数据训练的80亿参数模型性能媲美GPT-4,在伯克利功能调用排行榜上获得开源第一。
87 4
|
2天前
|
人工智能 内存技术
Gemini 2.0 Flash Thinking:谷歌推出实验性多模态推理模型,在快速生成的同时展示详细的思考过程
谷歌推出的实验性推理模型Gemini 2.0 Flash Thinking,展示了详细的思考过程,能够在多个领域快速解决问题,并提供推理路径。本文将详细介绍该模型的功能、技术原理及使用限制。
58 26
Gemini 2.0 Flash Thinking:谷歌推出实验性多模态推理模型,在快速生成的同时展示详细的思考过程
|
6月前
|
人工智能
3D 版 SORA 来了!DreamTech 推出全球首个原生 3D-DiT 大模型 Direct3D
【6月更文挑战第25天】DreamTech的Direct3D是全球首个3D-DiT模型,革新3D生成,使用3D潜在扩散变换,无需多视图或SDS优化,提升效率与准确性。模型包含D3D-VAE(高效编码3D形状)和D3D-DiT(模拟3D潜在分布)。它结合语义和像素条件生成与输入图像一致的3D形状,在质量和泛化上超越现有技术。然而,实际应用还需解决特定场景适应性、优化问题及集成挑战。[链接](https://arxiv.org/abs/2405.14832)
95 4
|
6月前
|
人工智能 API 流计算
[AI Stability] 开源AI新利器:Stable Diffusion 3 Medium震撼发布!文本到图像再升级!
探索 Stable Diffusion 3 Medium(SD3),Stability AI 的最新开源模型,正在彻底改变文本到图像的生成。了解其功能、许可选项和集成可能性。
[AI Stability] 开源AI新利器:Stable Diffusion 3 Medium震撼发布!文本到图像再升级!
|
6月前
|
人工智能 分布式计算 调度
人工智能平台PAI产品使用合集之Stable Diffusion如何部署
阿里云人工智能平台PAI是一个功能强大、易于使用的AI开发平台,旨在降低AI开发门槛,加速创新,助力企业和开发者高效构建、部署和管理人工智能应用。其中包含了一系列相互协同的产品与服务,共同构成一个完整的人工智能开发与应用生态系统。以下是对PAI产品使用合集的概述,涵盖数据处理、模型开发、训练加速、模型部署及管理等多个环节。
|
7月前
|
存储 自然语言处理 负载均衡
元象开源首个MoE大模型:4.2B激活参数,效果堪比13B模型,魔搭社区最佳实践来了
近日,元象发布其首个Moe大模型 XVERSE-MoE-A4.2B, 采用混合专家模型架构 (Mixture of Experts),激活参数4.2B,效果即可媲美13B模型。该模型全开源,无条件免费商用,支持中小企业、研究者和开发者可在元象高性能“全家桶”中按需选用,推动低成本部署。
|
7月前
|
人工智能 Apache
社区供稿 | 140B参数、可商用!OpenBuddy 发布首个开源千亿中文 MoE 模型的早期预览版
我们很自豪地于今天发布OpenBuddy最新一代千亿MoE大模型的早期预览版本:OpenBuddy-Mixtral-22Bx8-preview0-65k。此次发布的早期预览版对应约50%的训练进度。