社区供稿 | 姜子牙大模型开源代码大模型Ziya-Coding-34B-v1.0 再创榜单新高,魔搭开源可体验!

本文涉及的产品
交互式建模 PAI-DSW,每月250计算时 3个月
模型训练 PAI-DLC,100CU*H 3个月
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
简介: 使用自然语言生成高质量的代码是大模型落地中的高频需求。近日,IDEA研究院封神榜团队正式开源最新的代码大模型Ziya-Coding-34B-v1.0,我们在HumanEval Pass@1的评测上,取得了75.5的好成绩,超过了GPT-4(67.0)的得分,也成为目前已知开源模型新高。

使用自然语言生成高质量的代码是大模型落地中的高频需求。近日,IDEA研究院封神榜团队正式开源最新的代码大模型Ziya-Coding-34B-v1.0,我们在HumanEval Pass@1的评测上,取得了75.5的好成绩,超过了GPT-4(67.0)的得分,也成为目前已知开源模型新高。


封神榜团队正在为社区提供先进的大模型技术和经验,帮助生产和定制更多优秀垂类模型,推进大模型生态发展。


此次开源的Ziya-Coding-34B-v1.0,基于Code LLaMA 34B的预训练模型,经过了两个阶段的有监督精调,支持多种与代码相关的任务,包括代码生成、代码解释、代码纠错以及单元测试的生成等,能够以最佳性能辅助场景应用,欢迎点击开源链接体验!


Ziya-Coding-34B-v1.0开源地址


ModelScope地址:

https://modelscope.cn/models/

Fengshenbang/Ziya-Coding-34B-v1.0


Huggingface地址:

https://huggingface.co/

IDEA-CCNL/Ziya-Coding-34B-v1.0


先进技术积累效果再创新高

封神榜团队在代码大模型的预训练和精调技术上积累了丰富的经验。在9月初,我们开源了基于StarCoder-15B的代码模型Ziya-Coding-v1。100B token高质量中英文自然语言的继续预训练,使其具备了优秀的自然语言理解能力,在使用中文进行代码相关任务等方面尤为突出。Ziya-Coding-v1在HumanEval Pass@1的评测上也取得了50.2的好成绩。


Meta发布的Code LLaMA 34B使用了500B的代码token,在LLaMA2 34B的基础上进行继续预训练,在代码相关任务上具备了优异的基础性能。以Code LLaMA 34B作为底座模型,社区开发出了WizardCoder-Python-34B-v1.0、Phind-CodeLLaMa-34B-v2和CodeFuse-CodeLLaMA-34B等优秀的代码指令模型。我们将训练Ziya-Coding-v1积累的先进经验迁移到了第二个版本的训练中,以Code LLaMA 34B模型作为底座进行精调。


我们收集并构造了约45万涵盖了几乎所有代码相关任务的指令数据进行第一阶段的微调,这其中包括约10万的中文指令35万的英文指令,保证了数据的多样性,为模型对代码指令的意图理解能力打下了坚实的基础。在构造数据时,我们充分利用了高质量的无指令代码数据,使用LLM生成对应的指令,扩充得到了更多高质量的代码指令数据。


我们注意到,代码指令的难度和正确性是训练代码模型成功的关键。因此,我们引入了第二阶段的精调。我们使用evol-instruct的方法生成了大量高难度多要求的代码指令数据,并利用代码编译器作为反馈,筛选出能够通过编译的代码。最后利用LLM生成单元测试进一步验证代码的正确性。我们最终筛选出了46k数据,在第一阶段模型的基础上,使用较低的学习率进行微调,最终得到了我们的Ziya-Coding-34B-v1.0。

持续探索助力中国大模型社区发展

我们将持续对Ziya-Coding-34B-v1.0进行详尽的性能测试,欢迎关注我们的主页,了解更多使用示例和成功应用案例,同时也欢迎有意向进行商业合作的应用开发者与我们联系。


封神榜ModelScope主页

https://modelscope.cn/

organization/Fengshenbang


封神榜huggingface主页

https://huggingface.co/IDEA-CCNL


封神榜github主页

https://github.com/

IDEA-CCNL/Fengshenbang-LM


近期,LLM agent在社区中引起了火热的讨论,其光明的应用前景正在被更多人看到。作为agent中的重要组成部分,代码模型发挥着重要的作用,在商业分析、知识检索等领域,代码模型可以作为接口与知识和数据连接起来。封神榜团队也在积极探索agent相关技术,我们将在知识agent产品上进行持续的探索,欢迎关注我们的工作。


点击直达模型链接:https://modelscope.cn/models/Fengshenbang/Ziya-Coding-34B-v1.0/summary

相关文章
社区供稿 | 魔搭Agent创意挑战赛作品体验感受
近期在闲逛知乎时看到魔搭发起了一个Agent创新应用比赛,看了下奖金还挺高的呀( •̀ ω •́ )y
|
2月前
|
人工智能 自然语言处理 人机交互
MagicQuill:4天斩获千颗 Star,登上Huggingface趋势榜榜首的AI P图神器
MagicQuill通过结合编辑处理器、绘画助手和创意收集器三大功能,解决了图片精准、高效编辑的难题,用户可以通过三种简单的魔法画笔(添加、删除和上色)来编辑图片。
MagicQuill:4天斩获千颗 Star,登上Huggingface趋势榜榜首的AI P图神器
|
4月前
|
机器学习/深度学习 人工智能 自然语言处理
社区供稿 | 元象发布255B大规模MoE开源大模型,落地应用登顶港台榜
元象XVERSE发布 中国最大MoE开源模型:XVERSE-MoE-A36B,加速AI应用低成本部署,将国产开源提升至国际领先水平。
社区供稿 | 元象发布255B大规模MoE开源大模型,落地应用登顶港台榜
|
6月前
|
人工智能 自然语言处理 物联网
开源最新 Llama 3.1 系列大模型抢先体验
**Meta开源Llama 3.1系列模型,含4050亿参数“超大杯”版本。**阿里云百炼率先上架全系列,并为新老用户享30天100万tokens免费算力。模型广场现开放体验,欢迎试用与反馈。涵盖80亿、700亿、4050亿参数版本,上下文长度最大可达128K tokens,支持多语言。立即体验Llama 3.1的强大能力!
|
5月前
|
人工智能
DataWhale AI夏令营 第四期魔搭- 大模型应用全栈开发task01笔记
DataWhale AI夏令营 第四期魔搭- 大模型应用全栈开发task01笔记
81 0
|
6月前
|
人工智能 JSON 文字识别
开源VLM新标杆 InternVL 2.0 怎么用?部署、微调尽在魔搭社区!
7月4日下午,世界人工智能大会科学前沿论坛,上海人工智能实验室OpenGVLab发布了InternVL 2.0 版本,中文名书生·万象。
|
人工智能 自然语言处理 数据安全/隐私保护
【玩转ModelScope有奖征文活动】全新中文大模型竞技场上手评测
近年来,人工智能领域取得了巨大的进展,其中中文自然语言处理(NLP)领域尤为突出。这一进展的关键因素之一是中文大型语言模型的崛起,如BERT、GPT-3和其后继者,等。为了评估这些模型的性能和效用,进行中文大模型评测变得至关重要。本文将深入探讨中文大模型评测的关键方面,方法和洞见。本次测试主要模型为ChatGLM,moss-moon-003-sft,BiLLa-7B-SFT和BELLE-LLaMA-13B-2M等
74068 32
【玩转ModelScope有奖征文活动】全新中文大模型竞技场上手评测
|
数据采集 人工智能 自然语言处理
社区供稿 | 猎户星空发布Yi系列微调34B-Chat模型,开源免费,中英兼备全面领先!
OrionStar-Yi-34B-Chat中英文大模型集高性能、完全开源、免费可商用等诸多优势于一身
|
人工智能 自然语言处理 IDE
人手一个编程助手!北大代码大模型CodeShell-7B开源,魔搭社区最佳实践来了!
CodeShell是北京大学知识计算实验室联合四川天府银行AI团队研发的多语言代码大模型基座。

热门文章

最新文章