Axcxept携手阿里云,打造日语“首选”LLM——EZO×Qwen2.5

简介: Axcxept携手阿里云,打造日语“首选”LLM——EZO×Qwen2.5

20d43c9773f41dd2ce696b20e5a6a8c2.png

在众多模型中Qwen2.5 的表现十分亮眼,其在基础日语处理方面有非常显著的性能提升,搭配 Axcxept 独特的训练过程,更能促成高准确度的日语 LLM 开发。


——Kazuya Hodatsu

Axcxept首席执行官


关于Axcxept


Axcxept是一家专注于人工智能(AI)和云计算技术的公司,致力于开发创新的解决方案和服务,尤其是在日语处理和大语言模型(LLM)领域。公司名称“Axcxept”反映了其积极拥抱AI与云计算技术的愿景和希望通过高度适应变化的方式引领科技变革的想法。Axcxept的核心目标是提供安全、高效的行业领先解决方案,帮助各行业实现技术转型。


目前,日本大语言模型领域尚缺乏一个专门针对日语使用者的主导性“首选”模型。Axcxept旨在填补这一空白,开发一款能够精准处理复杂日语结构,并且特别适用于需要细致文化元素的应用场景的大语言模型。


选择阿里云


鉴于Qwen2.0在日语处理能力方面的卓越表现,其已在社交媒体上引发了广泛的关注和热议。随后推出的Qwen2.5更是将这一优势推向了新的高度,不仅进一步提升了日语语言处理的精准度与流畅度,还赋予了用户轻松定制和扩展所需功能的灵活性,赢得了国际好评。最终经多方考量,Axcxept选择了阿里云作为合作伙伴。


架构


EZO系列基于Qwen2.5进行微调优化。32B和72B模型配备了包含Auto-CoT和实时增强生成(RAG)技术。这使得复杂的日语语言支持成为可能,并能够进行持续更新。

由于EZO × Qwen2.5 可以在本地环境中运行,避免了对外部网络的依赖,从而确保了高数据安全性。这使得它特别适合于对隐私和安全有高度要求的行业,如医疗和政府机构。

5f37e4c539f059f6aa168970dcf2342b.png

主要成果


  • 基于 Qwen2.5 微调: EZO × Qwen2.5 模型在 Qwen2.5 的基础上进行优化,以增强其在日语语言处理中的表现。它能够处理复杂的日语语言结构,同时保持高精度,特别适合需要细致文化元素的应用场景。

  • 高准确度:在日本的 MT Bench(机器翻译基准测试)中,EZO × Qwen2.5 超越了现有的封闭模型,达到了更高的准确度。这使得它在日本市场中成为一种非常强大的语言处理工具。

  • 轻量级与低延迟: 该模型被设计为轻量级且具有低延迟,能够在大规模服务器上快速运行。这使其适用于各种行业,包括需要高速计算的领域,如金融、科技和公共服务等。

  • 支持复杂应用: EZO × Qwen2.5 不仅能支持高精度的日语翻译,还能在编码、数据提取、数学推理、角色扮演等多方面表现出色,其平均总分为8.44,优于GPT-4-Turbo的8.35分。

  • 安全性与隐私: EZO × Qwen2.5 可以在本地环境中运行,避免了对外部网络的依赖,从而确保了高数据安全性。这使得它特别适合于对隐私和安全有高度要求的行业,如医疗和政府机构。

  • 持续更新与扩展: EZO × Qwen2.5 支持实时增强生成(RAG)和持续更新技术,使其能够随着需求变化进行自我优化,提供不断提升的服务质量。


20d43c9773f41dd2ce696b20e5a6a8c2.png

Qwen2.5 has enhanced its performance in base Japanese processing, providing it with an edge over other models. Axcxept's proprietary training process has led to the development of a Japanese LLM with the highest level of accuracy.


Kazuya Hodatsu

CEO of Axcxept Inc.


About Axcxept


Axcxept focuses on maximizing the power of AI and cloud computing. The invention of company name "Axcxept" underscores their determination to embrace the technological intersection of AI and cloud, and to transform to the changing times in a highly adaptable manner. Above all else, the company pursues safety and efficiency, and provides industry-leading diversified solutions and services.


In the LLM landscape of Japan, there isn’t a dominant “go-to” LLM specifically for the Japanese speaker market. Axcxept wanted to pinpoint a base LLM that worked better with Japanese as a language, as well as incorporating nuanced cultural substance.


Why Alibaba Cloud


Qwen2.0's impressive Japanese language processing capabilities attracted a lot of interest across social media. Following this, Qwen2.5 has improved Japanese language processing capabilities even further. Additionally, the flexibility of being able to customize and expand the necessary functions easily has also gained a lot of attention internationally.


Architecture


The EZO series is implemented with fine tuning based on Qwen2.5. The 32B and 72B models are equipped with technology incorporating Auto-CoT and Real-time Augmented Generation (RAG). This allows for complex Japanese language support, as well as continuous updating.


Since the EZO x Qwen2.5 can be built in a local environment that does not need to communicate with external networks, it is suitable for industries where high security is an important factor, such as medical and public institutions.

5f37e4c539f059f6aa168970dcf2342b.png

Key Results


A fine-tuned implementation based on Qwen2.5, EZO x Qwen2.5 achieved accuracy that exceeded that of existing closed models in the Japanese MT Bench, the top Japanese language evaluation index in Japan.


It also has the advantage of being lightweight and low latency, and is able to run at high speed on large-scale servers, typically found in many industries.


The EZO x Qwen2.5 model outperforms GPT-4-Turbo across areas including coding, extraction, math, reasoning, roleplay, and writing with a total average score of 8.44 compared to the GPT score of 8.35.

相关文章
|
2月前
|
SQL 人工智能 自然语言处理
阿里云 CIO 蒋林泉:AI 大模型时代,我们如何用 RIDE 实现 RaaS 的首次落地?
本文整理自阿里云智能集团 CIO 蒋林泉在 AICon 2025 深圳的演讲,分享了阿里云在大模型应用落地中的实践经验。通过多个数字人项目案例,探讨了企业在 AI 应用中的组织转型、业务识别、产品定义与工程落地等关键环节,并提出了 RIDE 方法论(重组、识别、定义、执行),助力企业实现 AI 有效落地。
|
4月前
|
存储 运维 数据挖掘
革新智能驾驶数据挖掘检索效率!某国内新能源汽车未来出行领导者选择阿里云Milvus构建多模态检索引擎
在智能驾驶技术快速发展中,数据成为驱动算法进步的核心。某新能源汽车领军企业基于阿里云Milvus向量数据库构建智能驾驶数据挖掘平台,利用其高性能、可扩展的相似性检索服务,解决了大规模向量数据检索瓶颈问题,显著降低20%以上成本,缩短模型迭代周期,实现从数据采集到场景挖掘的智能化闭环,加速智能驾驶落地应用。
革新智能驾驶数据挖掘检索效率!某国内新能源汽车未来出行领导者选择阿里云Milvus构建多模态检索引擎
|
4月前
|
存储 机器学习/深度学习 缓存
阿里云AirCache技术实现多模态大模型高效推理加速,入选国际顶会ICCV2025
阿里云研发的AirCache技术被计算机视觉顶会ICCV2025收录,该技术通过激活跨模态关联、优化KV缓存压缩策略,显著提升视觉语言模型(VLMs)的推理效率与存储性能。实验表明,在保留仅10%视觉缓存的情况下,模型性能下降小于1%,解码延迟最高降低66%,吞吐量提升达192%。AirCache无需修改模型结构,兼容主流VLMs,已在教育、医疗、政务等多个行业落地应用,助力多模态大模型高效赋能产业智能化升级。
413 1
|
5月前
|
存储 人工智能 云计算
挑战杯专属支持资源|阿里云-AI大模型算力及实验资源丨云工开物
阿里云发起的“云工开物”高校支持计划,助力AI时代人才培养与科研创新。为“挑战杯”参赛选手提供专属算力资源、AI模型平台及学习训练资源,包括300元免费算力券、百炼大模型服务、PAI-ArtLab设计平台等,帮助学生快速掌握AI技能并构建优秀作品,推动产学研融合发展。访问链接领取资源:https://university.aliyun.com/action/tiaozhanbei。
|
1月前
|
缓存 物联网 PyTorch
使用TensorRT LLM构建和运行Qwen模型
本文档介绍如何在单GPU和单节点多GPU上使用TensorRT LLM构建和运行Qwen模型,涵盖模型转换、引擎构建、量化推理及LoRA微调等操作,并提供详细的代码示例与支持矩阵。
416 2
|
2月前
|
存储 机器学习/深度学习 人工智能
云栖 2025|阿里云 Qwen3 系列领衔:AI 模型全栈突破与开发者落地指南
阿里云发布Qwen3全栈AI体系,七大模型升级、性能全球领先,开源生态稳居第一。从底层基建到开发工具链全面优化,助力企业高效落地AI应用,共建超级AI云生态。
1358 11
|
2月前
|
机器学习/深度学习 人工智能 数据安全/隐私保护
阿里云 Qwen3 全栈 AI 模型:技术解析、开发者实操指南与 100 万企业落地案例
阿里云发布Qwen3全栈AI体系,推出Qwen3-Max、Qwen3-Next等七大模型,性能全球领先,开源生态超6亿次下载。支持百万级上下文、多模态理解,训练成本降90%,助力企业高效落地AI。覆盖制造、金融、创作等场景,提供无代码与代码级开发工具,共建超级AI云生态。
758 6
|
2月前
|
人工智能 API
阿里云百炼API-KEY在哪查询?如何获取阿里云AI百炼大模型的API-KEY?
阿里云百炼是阿里云推出的AI大模型平台,用户可通过其管理控制台获取API-KEY。需先开通百炼平台及大模型服务,即可创建并复制API-KEY。目前平台提供千万tokens免费额度,详细操作流程可参考官方指引。
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
53_多模态LLM:图像理解的新范式
在人工智能技术快速发展的今天,单一模态的语言模型已经无法满足日益复杂的应用需求。2025年,多模态大型语言模型(MLLM)的崛起标志着AI技术进入了一个新的发展阶段,特别是在图像理解与文本生成的结合方面取得了突破性进展。本文将深入剖析多模态LLM的技术原理、架构设计、性能评估及实际应用案例,探讨视觉-语言融合技术如何重塑AI应用的边界,以及在未来发展中面临的挑战与机遇。

热门文章

最新文章