Axcxept携手阿里云,打造日语“首选”LLM——EZO×Qwen2.5

简介: Axcxept携手阿里云,打造日语“首选”LLM——EZO×Qwen2.5

20d43c9773f41dd2ce696b20e5a6a8c2.png

在众多模型中Qwen2.5 的表现十分亮眼,其在基础日语处理方面有非常显著的性能提升,搭配 Axcxept 独特的训练过程,更能促成高准确度的日语 LLM 开发。


——Kazuya Hodatsu

Axcxept首席执行官


关于Axcxept


Axcxept是一家专注于人工智能(AI)和云计算技术的公司,致力于开发创新的解决方案和服务,尤其是在日语处理和大语言模型(LLM)领域。公司名称“Axcxept”反映了其积极拥抱AI与云计算技术的愿景和希望通过高度适应变化的方式引领科技变革的想法。Axcxept的核心目标是提供安全、高效的行业领先解决方案,帮助各行业实现技术转型。


目前,日本大语言模型领域尚缺乏一个专门针对日语使用者的主导性“首选”模型。Axcxept旨在填补这一空白,开发一款能够精准处理复杂日语结构,并且特别适用于需要细致文化元素的应用场景的大语言模型。


选择阿里云


鉴于Qwen2.0在日语处理能力方面的卓越表现,其已在社交媒体上引发了广泛的关注和热议。随后推出的Qwen2.5更是将这一优势推向了新的高度,不仅进一步提升了日语语言处理的精准度与流畅度,还赋予了用户轻松定制和扩展所需功能的灵活性,赢得了国际好评。最终经多方考量,Axcxept选择了阿里云作为合作伙伴。


架构


EZO系列基于Qwen2.5进行微调优化。32B和72B模型配备了包含Auto-CoT和实时增强生成(RAG)技术。这使得复杂的日语语言支持成为可能,并能够进行持续更新。

由于EZO × Qwen2.5 可以在本地环境中运行,避免了对外部网络的依赖,从而确保了高数据安全性。这使得它特别适合于对隐私和安全有高度要求的行业,如医疗和政府机构。

5f37e4c539f059f6aa168970dcf2342b.png

主要成果


  • 基于 Qwen2.5 微调: EZO × Qwen2.5 模型在 Qwen2.5 的基础上进行优化,以增强其在日语语言处理中的表现。它能够处理复杂的日语语言结构,同时保持高精度,特别适合需要细致文化元素的应用场景。

  • 高准确度:在日本的 MT Bench(机器翻译基准测试)中,EZO × Qwen2.5 超越了现有的封闭模型,达到了更高的准确度。这使得它在日本市场中成为一种非常强大的语言处理工具。

  • 轻量级与低延迟: 该模型被设计为轻量级且具有低延迟,能够在大规模服务器上快速运行。这使其适用于各种行业,包括需要高速计算的领域,如金融、科技和公共服务等。

  • 支持复杂应用: EZO × Qwen2.5 不仅能支持高精度的日语翻译,还能在编码、数据提取、数学推理、角色扮演等多方面表现出色,其平均总分为8.44,优于GPT-4-Turbo的8.35分。

  • 安全性与隐私: EZO × Qwen2.5 可以在本地环境中运行,避免了对外部网络的依赖,从而确保了高数据安全性。这使得它特别适合于对隐私和安全有高度要求的行业,如医疗和政府机构。

  • 持续更新与扩展: EZO × Qwen2.5 支持实时增强生成(RAG)和持续更新技术,使其能够随着需求变化进行自我优化,提供不断提升的服务质量。


20d43c9773f41dd2ce696b20e5a6a8c2.png

Qwen2.5 has enhanced its performance in base Japanese processing, providing it with an edge over other models. Axcxept's proprietary training process has led to the development of a Japanese LLM with the highest level of accuracy.


Kazuya Hodatsu

CEO of Axcxept Inc.


About Axcxept


Axcxept focuses on maximizing the power of AI and cloud computing. The invention of company name "Axcxept" underscores their determination to embrace the technological intersection of AI and cloud, and to transform to the changing times in a highly adaptable manner. Above all else, the company pursues safety and efficiency, and provides industry-leading diversified solutions and services.


In the LLM landscape of Japan, there isn’t a dominant “go-to” LLM specifically for the Japanese speaker market. Axcxept wanted to pinpoint a base LLM that worked better with Japanese as a language, as well as incorporating nuanced cultural substance.


Why Alibaba Cloud


Qwen2.0's impressive Japanese language processing capabilities attracted a lot of interest across social media. Following this, Qwen2.5 has improved Japanese language processing capabilities even further. Additionally, the flexibility of being able to customize and expand the necessary functions easily has also gained a lot of attention internationally.


Architecture


The EZO series is implemented with fine tuning based on Qwen2.5. The 32B and 72B models are equipped with technology incorporating Auto-CoT and Real-time Augmented Generation (RAG). This allows for complex Japanese language support, as well as continuous updating.


Since the EZO x Qwen2.5 can be built in a local environment that does not need to communicate with external networks, it is suitable for industries where high security is an important factor, such as medical and public institutions.

5f37e4c539f059f6aa168970dcf2342b.png

Key Results


A fine-tuned implementation based on Qwen2.5, EZO x Qwen2.5 achieved accuracy that exceeded that of existing closed models in the Japanese MT Bench, the top Japanese language evaluation index in Japan.


It also has the advantage of being lightweight and low latency, and is able to run at high speed on large-scale servers, typically found in many industries.


The EZO x Qwen2.5 model outperforms GPT-4-Turbo across areas including coding, extraction, math, reasoning, roleplay, and writing with a total average score of 8.44 compared to the GPT score of 8.35.

相关文章
|
2月前
|
存储 运维 数据挖掘
革新智能驾驶数据挖掘检索效率!某国内新能源汽车未来出行领导者选择阿里云Milvus构建多模态检索引擎
在智能驾驶技术快速发展中,数据成为驱动算法进步的核心。某新能源汽车领军企业基于阿里云Milvus向量数据库构建智能驾驶数据挖掘平台,利用其高性能、可扩展的相似性检索服务,解决了大规模向量数据检索瓶颈问题,显著降低20%以上成本,缩短模型迭代周期,实现从数据采集到场景挖掘的智能化闭环,加速智能驾驶落地应用。
革新智能驾驶数据挖掘检索效率!某国内新能源汽车未来出行领导者选择阿里云Milvus构建多模态检索引擎
|
2月前
|
存储 机器学习/深度学习 缓存
阿里云AirCache技术实现多模态大模型高效推理加速,入选国际顶会ICCV2025
阿里云研发的AirCache技术被计算机视觉顶会ICCV2025收录,该技术通过激活跨模态关联、优化KV缓存压缩策略,显著提升视觉语言模型(VLMs)的推理效率与存储性能。实验表明,在保留仅10%视觉缓存的情况下,模型性能下降小于1%,解码延迟最高降低66%,吞吐量提升达192%。AirCache无需修改模型结构,兼容主流VLMs,已在教育、医疗、政务等多个行业落地应用,助力多模态大模型高效赋能产业智能化升级。
200 1
|
4月前
|
程序员 定位技术 开发者
试了试阿里云的通义灵码 2.5 版
通义灵码 2.5 版是个特别实用的工具,无论是个人开发者还是企业团队,都能从中受益。如果你也在找能提升开发效率的工具,通义灵码绝对值得一试!
163 33
试了试阿里云的通义灵码 2.5 版
|
3月前
|
存储 人工智能 云计算
挑战杯专属支持资源|阿里云-AI大模型算力及实验资源丨云工开物
阿里云发起的“云工开物”高校支持计划,助力AI时代人才培养与科研创新。为“挑战杯”参赛选手提供专属算力资源、AI模型平台及学习训练资源,包括300元免费算力券、百炼大模型服务、PAI-ArtLab设计平台等,帮助学生快速掌握AI技能并构建优秀作品,推动产学研融合发展。访问链接领取资源:https://university.aliyun.com/action/tiaozhanbei。
|
5月前
|
存储 人工智能 监控
通过阿里云Milvus与通义千问VL大模型,快速实现多模态搜索
阿里云向量检索服务Milvus版是一款全托管向量检索引擎,并确保与开源Milvus的完全兼容性,支持无缝迁移。它在开源版本的基础上增强了可扩展性,能提供大规模AI向量数据的相似性检索服务。凭借其开箱即用的特性、灵活的扩展能力和全链路监控告警,Milvus云服务成为多样化AI应用场景的理想选择,包括多模态搜索、检索增强生成(RAG)、搜索推荐、内容风险识别等。您还可以利用开源的Attu工具进行可视化操作,进一步促进应用的快速开发和部署。
|
5月前
|
人工智能 云计算 开发者
南京大学与阿里云联合启动人工智能人才培养合作计划,已将通义灵码引入软件学院课程体系
近日,南京大学与阿里云宣布启动人工智能人才培养合作计划,共同培养适应未来技术变革、具备跨学科思维的AI创新人才。
|
5月前
|
云安全 人工智能 自然语言处理
|
4月前
|
弹性计算 自然语言处理 Ubuntu
从0开始在阿里云上搭建基于通义千问的钉钉智能问答机器人
本文描述在阿里云上从0开始构建一个LLM智能问答钉钉机器人。LLM直接调用了阿里云百炼平台提供的调用服务。
从0开始在阿里云上搭建基于通义千问的钉钉智能问答机器人