Axcxept携手阿里云,打造日语“首选”LLM——EZO×Qwen2.5

简介: Axcxept携手阿里云,打造日语“首选”LLM——EZO×Qwen2.5

20d43c9773f41dd2ce696b20e5a6a8c2.png

在众多模型中Qwen2.5 的表现十分亮眼,其在基础日语处理方面有非常显著的性能提升,搭配 Axcxept 独特的训练过程,更能促成高准确度的日语 LLM 开发。


——Kazuya Hodatsu

Axcxept首席执行官


关于Axcxept


Axcxept是一家专注于人工智能(AI)和云计算技术的公司,致力于开发创新的解决方案和服务,尤其是在日语处理和大语言模型(LLM)领域。公司名称“Axcxept”反映了其积极拥抱AI与云计算技术的愿景和希望通过高度适应变化的方式引领科技变革的想法。Axcxept的核心目标是提供安全、高效的行业领先解决方案,帮助各行业实现技术转型。


目前,日本大语言模型领域尚缺乏一个专门针对日语使用者的主导性“首选”模型。Axcxept旨在填补这一空白,开发一款能够精准处理复杂日语结构,并且特别适用于需要细致文化元素的应用场景的大语言模型。


选择阿里云


鉴于Qwen2.0在日语处理能力方面的卓越表现,其已在社交媒体上引发了广泛的关注和热议。随后推出的Qwen2.5更是将这一优势推向了新的高度,不仅进一步提升了日语语言处理的精准度与流畅度,还赋予了用户轻松定制和扩展所需功能的灵活性,赢得了国际好评。最终经多方考量,Axcxept选择了阿里云作为合作伙伴。


架构


EZO系列基于Qwen2.5进行微调优化。32B和72B模型配备了包含Auto-CoT和实时增强生成(RAG)技术。这使得复杂的日语语言支持成为可能,并能够进行持续更新。

由于EZO × Qwen2.5 可以在本地环境中运行,避免了对外部网络的依赖,从而确保了高数据安全性。这使得它特别适合于对隐私和安全有高度要求的行业,如医疗和政府机构。

5f37e4c539f059f6aa168970dcf2342b.png

主要成果


  • 基于 Qwen2.5 微调: EZO × Qwen2.5 模型在 Qwen2.5 的基础上进行优化,以增强其在日语语言处理中的表现。它能够处理复杂的日语语言结构,同时保持高精度,特别适合需要细致文化元素的应用场景。

  • 高准确度:在日本的 MT Bench(机器翻译基准测试)中,EZO × Qwen2.5 超越了现有的封闭模型,达到了更高的准确度。这使得它在日本市场中成为一种非常强大的语言处理工具。

  • 轻量级与低延迟: 该模型被设计为轻量级且具有低延迟,能够在大规模服务器上快速运行。这使其适用于各种行业,包括需要高速计算的领域,如金融、科技和公共服务等。

  • 支持复杂应用: EZO × Qwen2.5 不仅能支持高精度的日语翻译,还能在编码、数据提取、数学推理、角色扮演等多方面表现出色,其平均总分为8.44,优于GPT-4-Turbo的8.35分。

  • 安全性与隐私: EZO × Qwen2.5 可以在本地环境中运行,避免了对外部网络的依赖,从而确保了高数据安全性。这使得它特别适合于对隐私和安全有高度要求的行业,如医疗和政府机构。

  • 持续更新与扩展: EZO × Qwen2.5 支持实时增强生成(RAG)和持续更新技术,使其能够随着需求变化进行自我优化,提供不断提升的服务质量。


20d43c9773f41dd2ce696b20e5a6a8c2.png

Qwen2.5 has enhanced its performance in base Japanese processing, providing it with an edge over other models. Axcxept's proprietary training process has led to the development of a Japanese LLM with the highest level of accuracy.


Kazuya Hodatsu

CEO of Axcxept Inc.


About Axcxept


Axcxept focuses on maximizing the power of AI and cloud computing. The invention of company name "Axcxept" underscores their determination to embrace the technological intersection of AI and cloud, and to transform to the changing times in a highly adaptable manner. Above all else, the company pursues safety and efficiency, and provides industry-leading diversified solutions and services.


In the LLM landscape of Japan, there isn’t a dominant “go-to” LLM specifically for the Japanese speaker market. Axcxept wanted to pinpoint a base LLM that worked better with Japanese as a language, as well as incorporating nuanced cultural substance.


Why Alibaba Cloud


Qwen2.0's impressive Japanese language processing capabilities attracted a lot of interest across social media. Following this, Qwen2.5 has improved Japanese language processing capabilities even further. Additionally, the flexibility of being able to customize and expand the necessary functions easily has also gained a lot of attention internationally.


Architecture


The EZO series is implemented with fine tuning based on Qwen2.5. The 32B and 72B models are equipped with technology incorporating Auto-CoT and Real-time Augmented Generation (RAG). This allows for complex Japanese language support, as well as continuous updating.


Since the EZO x Qwen2.5 can be built in a local environment that does not need to communicate with external networks, it is suitable for industries where high security is an important factor, such as medical and public institutions.

5f37e4c539f059f6aa168970dcf2342b.png

Key Results


A fine-tuned implementation based on Qwen2.5, EZO x Qwen2.5 achieved accuracy that exceeded that of existing closed models in the Japanese MT Bench, the top Japanese language evaluation index in Japan.


It also has the advantage of being lightweight and low latency, and is able to run at high speed on large-scale servers, typically found in many industries.


The EZO x Qwen2.5 model outperforms GPT-4-Turbo across areas including coding, extraction, math, reasoning, roleplay, and writing with a total average score of 8.44 compared to the GPT score of 8.35.

目录
打赏
0
0
0
0
320
分享
相关文章
LLM大模型实战 —— DB-GPT阿里云部署指南
DB-GPT 是一个实验性的开源应用,它基于FastChat,并使用vicuna-13b作为基础模型, 模型与数据全部本地化部署, 绝对保障数据的隐私安全。 同时此GPT项目可以直接本地部署连接到私有数据库, 进行私有数据处理, 目前已支持SQL生成、SQL诊断、数据库知识问答、数据处理等一系列的工作。
9509 2
文档智能 & RAG 让AI大模型更懂业务 —— 阿里云LLM知识库解决方案评测
随着数字化转型的深入,企业对文档管理和知识提取的需求日益增长。阿里云推出的文档智能 & RAG(Retrieval-Augmented Generation)解决方案,通过高效的内容清洗、向量化处理、精准的问答召回和灵活的Prompt设计,帮助企业构建强大的LLM知识库,显著提升企业级文档管理的效率和准确性。
使用阿里云服务网格高效管理LLM流量:(二)流量可观测
本文介绍如何使用阿里云服务网格提供的增强能力灵活、全面的观测集群中的LLM流量。
通过阿里云Milvus和LangChain快速构建LLM问答系统
本文介绍如何通过整合阿里云Milvus、阿里云DashScope Embedding模型与阿里云PAI(EAS)模型服务,构建一个由LLM(大型语言模型)驱动的问题解答应用,并着重演示了如何搭建基于这些技术的RAG对话系统。
基于阿里云函数计算(FC)x 云原生 API 网关构建生产级别 LLM Chat 应用方案最佳实践
本文带大家了解一下如何使用阿里云Serverless计算产品函数计算构建生产级别的LLM Chat应用。该最佳实践会指导大家基于开源WebChat组件LobeChat和阿里云函数计算(FC)构建企业生产级别LLM Chat应用。实现同一个WebChat中既可以支持自定义的Agent,也支持基于Ollama部署的开源模型场景。
1304 34
通过阿里云 Milvus 和 LangChain 快速构建 LLM 问答系统
本文介绍如何通过整合阿里云Milvus、阿里云DashScope Embedding模型与阿里云PAI(EAS)模型服务,构建一个由LLM(大型语言模型)驱动的问题解答应用,并着重演示了如何搭建基于这些技术的RAG对话系统。
通过阿里云 Milvus 和 LangChain 快速构建 LLM 问答系统
使用 NVIDIA NIM 在阿里云容器服务(ACK)中加速 LLM 推理
本文介绍了在阿里云容器服务 ACK 上部署 NVIDIA NIM,结合云原生 AI 套件和 KServe 快速构建高性能模型推理服务的方法。通过阿里云 Prometheus 和 Grafana 实现实时监控,并基于排队请求数配置弹性扩缩容策略,提升服务稳定性和效率。文章提供了详细的部署步骤和示例,帮助读者快速搭建和优化模型推理服务。
399 7
使用 NVIDIA NIM 在阿里云容器服务(ACK)中加速 LLM 推理
使用NVIDIA NIM在阿里云ACK中加速LLM推理
介绍在阿里云ACK集群上结合AI套件能力快速部署NVIDIA NIM模型推理服务,同时提供全面的监控指标和实现弹性伸缩。
使用NVIDIA NIM在阿里云ACK中加速LLM推理
使用阿里云服务网格高效管理LLM流量:(一)流量路由
ASM支持通过LLMProvider和LLMRoute资源管理大型语言模型流量。LLMProvider负责注册LLM服务,LLMRoute负责设定流量规则,应用可灵活切换模型,满足不同场景需求。

热门文章

最新文章

下一篇
oss创建bucket