Llama3.1-8B模型中文版!OpenBuddy发布新一代跨语言模型

简介: 7月23日,Meta发布了新一代开源模型系列:Llama3.1。其中405B参数的版本刷新了开源模型性能的上限,在多种指标上的测试成绩接近GPT-4等闭源模型的水平,甚至在部分基准测试中展现出来了超越头部闭源模型的潜力。

本次发布我们在Llama3.1上首个工作:OpenBuddy-Llama3.1-8B-v22.1-131K。

Llama3.1:开源模型的新里程碑

7月23日,Meta发布了新一代开源模型系列:Llama3.1。其中405B参数的版本刷新了开源模型性能的上限,在多种指标上的测试成绩接近GPT-4等闭源模型的水平,甚至在部分基准测试中展现出来了超越头部闭源模型的潜力。

同时,Meta在本次发布时修改了许可协议中对数据蒸馏方面的限制,允许开发者使用Llama3.1-405B模型的输出训练其它模型。

Llama3.1-8B-Instruct:利用合成数据增强小模型

除了模型尺寸的提升之外,Meta还尝试了在数据集构成、训练方法、 位置编码缩放等方向上增强模型的综合能力,并于同日发布了8B、70B模型的3.1增强版本。

Llama3.1-8B-Instruct基于8种语言的语料、问答对进行训练,支持英语、德语、法语、意大利语、葡萄牙语、西班牙语、印地语和泰语。借助特有的长文扩容技术,其上下文长度高达131072 tokens。模型训练集中的知识截止日期更新到了2023年12月,和上个版本相比具备更新的知识储备。

除了语言、长文、时效性方面的提升外,Meta尝试了借助405B模型等大模型合成数据,并用合成数据提升小模型的能力的路线。在后期训练中,Meta使用了超过2500万条合成数据,使8B小模型的能力得到进一步提升。

在代码、数学等测试模型的认知、推理能力的基准中,Llama3.1-8B-Instruct取得了令人振奋的成绩,具备和GPT 3.5 Turbo相接近的综合能力水平:

OpenBuddy-Llama3.1-8B-v22.1:新一代开源跨语言模型

尽管Llama3.1仍然不具备中文能力,但模型已经在8种语言上得到了充分的训练,具备一定的跨语言潜力。本次时长约为半天的训练过程中,我们尝试使用了约10%的少量数据,在Llama3.1-8B-Instruct的基础上进行以增强中文语言能力为主要目标的训练过程。

经过少量数据训练后,模型具备了中文问答和跨语言翻译能力。和上一代8B模型相比,本次发布的模型在一些容易产生概念混淆的问题上,能够输出通常只有更大模型才能生成的答案,具备更强的认知潜力。

Q: 为什么手机只有100/100的电啊,根本就不够用,建议以后手机都有200/200的电

A: 手机电量显示为 100/100 的设计主要是为了向用户提供一个直观的电量剩余指示。这种设计简化了电量显示,使得用户可以快速了解当前的电量状况。然而,实际上,手机的电池容量并不是 100 单位,而是以毫瓦时(mAh)或瓦时(Wh)等单位来衡量,这意味着它们能够存储和释放电能的量。

手机电量显示为 100/100 的设计反映了电池容量的最大值,但这并不意味着电池在达到 100% 时就无法再充电。实际上,电池在充满电后仍然可以继续充电,只是电量显示不会再增加了。这种设计有助于保护电池,避免过度充电导致电池寿命缩短。

如果手机电量显示设计改为 200/200,虽然在直观上可能给用户带来更大的满意感,但实际上并不改变电池的存储能力。用户可能会误以为电池的容量翻倍了,而实际上只是显示方式的改变。这种设计可能会导致用户在电量显示接近 200% 时误以为电池已经充满电,从而忽视了电池的实际充电情况。

因此,虽然从用户体验角度考虑,提供一个更大的显示范围(如 200/200)可能会让用户感到更加满意,但从电池管理和用户教育的角度来看,保持电量显示为 100/100 的设计是更合理的选择。这样既可以避免误导用户,也有助于保护电池的健康。

欢迎访问我们在ModelScope中的项目页面,下载、体验我们的模型。

受训练数据集和训练时间的限制,本次发布的模型在中文知识,尤其是传统文化知识上仍存在幻觉。尽管本次训练过程中未使用长文数据,但得益于模型原本的长文能力,模型在长文理解等任务上具备相对稳定的表现。

未来,我们计划对8B和70B模型进行更大规模的训练,从而进一步增强模型的中文知识储备、长文能力和认知能力。同时,我们也正在探索微调405B模型的可能性,敬请期待。

相关文章
|
8月前
|
数据采集 自然语言处理 文字识别
大模型升级与设计之道:ChatGLM、LLAMA、Baichuan及LLM结构解析(下)
大模型升级与设计之道:ChatGLM、LLAMA、Baichuan及LLM结构解析(下)
656 0
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
GLM-Edge:智谱开源的端侧大语言和多模态系列模型
GLM-Edge是智谱开源的一系列端侧部署优化的大语言对话模型和多模态理解模型,旨在实现模型性能、实机推理效果和落地便利性之间的最佳平衡。该系列模型支持在手机、车机和PC等端侧设备上高效运行,适用于智能助手、聊天机器人、图像标注等多种应用场景。
78 7
GLM-Edge:智谱开源的端侧大语言和多模态系列模型
|
2月前
|
数据采集 文字识别 测试技术
智谱开源端侧大语言和多模态模型GLM-Edge系列!
GLM-Edge系列模型是由智谱开源,专为端侧应用设计的大语言对话模型和多模态理解模型,包括GLM-Edge-1.5B-Chat、GLM-Edge-4B-Chat、GLM-Edge-V-2B和GLM-Edge-V-5B四种尺寸。这些模型针对手机、车机及PC等不同平台进行了优化,通过量化的技术手段,实现了高效运行。例如,在高通骁龙8 Elite平台上,1.5B对话模型和2B多模态模型能够达到每秒60 tokens以上的解码速度,而通过应用投机采样技术,这一数字可提升至100 tokens以上。
智谱开源端侧大语言和多模态模型GLM-Edge系列!
|
5月前
|
人工智能 机器人
OpenAI推出了其最强大模型的迷你版本
OpenAI推出了其最强大模型的迷你版本
OpenAI推出了其最强大模型的迷你版本
|
6月前
|
人工智能 自然语言处理 测试技术
Meet Llama3.1,405B赶超最强闭源模型!上魔搭社区一站体验、下载、推理、微调、部署
官方公布的Benchmark显示,Llama3.1 405B已在多项基准测试中超越GPT-4o和Claude 3.5 Sonnet,这是开源大模型首次赶超最强闭源模型!
|
机器学习/深度学习 API 开发工具
|
6月前
|
数据可视化 物联网 Swift
谷歌开源Gemma2!魔搭社区推理、微调最佳实践教程
Google面向全球研究人员和开发者发布并开源 Gemma 2 大语言模型!本次Gemma 2 系列为轻量级开放模型,提供9B和27B参数两种尺寸,采用全新的架构设计,性能表现优异。
|
8月前
|
机器学习/深度学习 安全 算法框架/工具
开源vs闭源,大模型的未来在哪一边?
开源vs闭源,大模型的未来在哪一边?
开源vs闭源,大模型的未来在哪一边?
|
8月前
|
存储 自然语言处理 负载均衡
元象开源首个MoE大模型:4.2B激活参数,效果堪比13B模型,魔搭社区最佳实践来了
近日,元象发布其首个Moe大模型 XVERSE-MoE-A4.2B, 采用混合专家模型架构 (Mixture of Experts),激活参数4.2B,效果即可媲美13B模型。该模型全开源,无条件免费商用,支持中小企业、研究者和开发者可在元象高性能“全家桶”中按需选用,推动低成本部署。
|
8月前
|
人工智能 安全 开发者
谷歌最新的开源大模型Gemma
【2月更文挑战第11天】谷歌最新的开源大模型Gemma
113 1
谷歌最新的开源大模型Gemma

热门文章

最新文章