通义千问首次落地天玑9300移动平台

简介: 联发科天玑9300芯片携手阿里云通义千问大模型,实现移动端AI重大突破。通义千问在天玑9300上的高效运行,标志手机AI技术新高度,提供即时多轮对话体验。双方深度合作优化模型,通义千问18亿参数版在推理时内存占用低,速度高,为行业设定标准。双方启动AI智能体解决方案计划,推动下一代智能终端应用生态发展。高通等竞争对手也在加速大模型移动端部署,端侧AI市场竞争加剧。

557580fedf6169b934882469771a244f.jpg
在人工智能技术的飞速发展下,智能手机已经不仅仅是通讯工具,更是人们日常生活中的智能助手。而这一切的背后,离不开芯片技术的不断创新和突破。近日,联发科与阿里云的合作成果——通义千问大模型成功落地天玑9300移动平台,为智能手机端的AI应用开启了新的篇章。

联发科作为全球领先的半导体公司,一直在AI领域进行着不懈的探索和创新。天玑9300作为其旗舰芯片,此次成功部署通义千问大模型,不仅标志着手机端AI技术的重要进步,也为移动设备带来了更高效、更智能的体验。阿里云自研的通义千问大模型,以其18亿、40亿、70亿等不同参数规模的模型,为各类智能终端提供了强有力的AI支持。

此次合作的亮点在于,通义千问大模型能够在天玑9300移动平台上离线流畅运行,实现即时且精准的多轮AI对话应用。这一成果的实现,得益于双方在模型瘦身、工具链优化、推理优化、内存优化、算子优化等多个维度的深度合作。通过高效异构加速,大模型得以在手机芯片中高效运行,实现了从技术验证到商业化落地的重要转变。

通义千问18亿参数开源大模型在天玑9300设备上的表现为业界树立了新的标杆。在推理2048 tokens时,内存占用仅为1.8GB,且CPU占有率仅为30%左右,RAM占用少于2GB,推理速度超过20tokens/秒。这些指标的优异表现,使得通义千问大模型在离线环境下也能流畅地完成多轮AI对话,极大地提升了用户的AI体验。

此外,天玑9300集成的MediaTek第七代AI处理器APU790,其生成式AI处理速度是上一代AI处理器的8倍。这一突破性的提升,不仅为AI智能体及应用的开发提供了更强大的硬件支持,也为AI应用的未来发展打开了新的可能性。

阿里云与MediaTek的合作不仅限于技术层面,双方还宣布启动联合探索AI智能体解决方案计划。该计划旨在整合MediaTek天玑移动平台的AI算力及阿里云通义千问的大模型能力,为开发者和企业提供更完善的软硬联合开发平台。这一举措将有助于推动智能终端在端侧高能效地实现自然语言理解、复杂决策制定以及个性化服务生成,探索打造真正具备情境感知、自主学习和实时交互功能的下一代智能终端应用生态。

通义千问大模型的落地,已经在多个行业和领域展现出其强大的应用潜力。例如,在钉钉、淘宝、一汽红旗、央视网、浙江大学等众多应用、企业及机构中,通义千问已经实现了全新的交互体验以及更精准的推荐服务。阿里云与中国一汽联合打造的大模型应用GPT-BI,能够结合企业数据自动生成分析图表,为企业决策提供有力支持。

然而,尽管通义千问大模型在天玑9300移动平台上取得了显著成果,但仍需注意到,端侧AI的发展仍面临一些挑战。例如,如何在保证AI性能的同时,进一步降低功耗和成本,以及如何确保用户数据的隐私和安全等问题,都是业界需要持续关注和解决的课题。

此外,高通等其他芯片制造商也在积极推动大模型在手机终端的落地。例如,高通最新推出的第三代骁龙8s移动平台,支持100亿参数级别的大语言模型,这也为手机端AI应用的发展提供了更强大的支持。这表明,端侧AI的竞争正在日益激烈,各大厂商都在努力提升自身的技术水平和市场竞争力。

目录
相关文章
|
6月前
|
机器学习/深度学习 数据采集 人工智能
通义实验室Mobile-Agent-v3开源,全平台SOTA的GUI智能体,支持手机电脑等多平台交互
近日,通义实验室MobileAgent团队正式开源全新图形界面交互基础模型 GUI-Owl,并同步推出支持多智能体协同的自动化框架 Mobile-Agent-v3。该模型基于Qwen2.5-VL打造,在手机端与电脑端共8个GUI任务榜单中全面刷新开源模型性能纪录,达成全平台SOTA。
2071 2
|
8月前
|
消息中间件 人工智能 资源调度
云上AI推理平台全掌握 (5):大模型异步推理服务
针对大模型推理服务中“高计算量、长时延”场景下同步推理的弊端,阿里云人工智能平台 PAI 推出了一套基于独立的队列服务异步推理框架,解决了异步推理的负载均衡、实例异常时任务重分配等问题,确保请求不丢失、实例不过载。
|
8月前
|
人工智能 缓存 资源调度
云上AI推理平台全掌握 (4):大模型分发加速
为应对大模型服务突发流量场景,阿里云人工智能平台 PAI 推理服务 PAI-EAS 提供本地目录内存缓存(Memory Cache)的大模型分发加速功能,有效解决大量请求接入情况下的推理延迟。PAI-EAS 大模型分发加速功能,零代码即可轻松完成配置。
|
7月前
|
传感器 边缘计算 人工智能
2025大模型应用平台选型指南:从个人助手到企业级智能体,5大平台场景化拆解
本文深度评测五大主流大模型平台,结合金融、医疗、制造实战案例,解析Open WebUI、Dify、Ragflow、FastGPT与n8n的定位与优势,提供选型决策树与混合架构实例,助你精准匹配业务需求,避开“全能平台”陷阱,实现高效智能化落地。
|
8月前
|
弹性计算 关系型数据库 API
自建Dify平台与PAI EAS LLM大模型
本文介绍了如何使用阿里云计算巢(ECS)一键部署Dify,并在PAI EAS上搭建LLM、Embedding及重排序模型,实现知识库支持的RAG应用。内容涵盖Dify初始化、PAI模型部署、API配置及RAG知识检索设置。
自建Dify平台与PAI EAS LLM大模型
|
6月前
|
人工智能 数据可视化 前端开发
AI Ping:精准可靠的大模型服务性能评测平台
AI Ping是清华系团队推出的“大模型服务评测平台”,被誉为“AI界的大众点评”。汇聚230+模型服务,7×24小时监测性能数据,以吞吐量、延迟等硬指标助力开发者科学选型。界面简洁,数据可视化强,支持多模型对比,横向对标国内外主流平台,为AI应用落地提供权威参考。
1634 3
|
5月前
|
存储 人工智能 搜索推荐
拔俗AI大模型教学平台:开启智能教育新时代
在AI与教育深度融合背景下,本文基于阿里云技术构建大模型教学平台,破解个性化不足、反馈滞后等难题。通过“大模型+知识图谱+场景应用”三层架构,实现智能答疑、精准学情分析与个性化学习路径推荐,助力教学质量与效率双提升,推动教育智能化升级。
629 0
|
5月前
|
传感器 人工智能 监控
拔俗多模态跨尺度大数据AI分析平台:让复杂数据“开口说话”的智能引擎
在数字化时代,多模态跨尺度大数据AI分析平台应运而生,打破数据孤岛,融合图像、文本、视频等多源信息,贯通微观与宏观尺度,实现智能诊断、预测与决策,广泛应用于医疗、制造、金融等领域,推动AI从“看懂”到“会思考”的跃迁。
412 0
|
5月前
|
人工智能 运维 NoSQL
拔俗AI大模型知识管理平台:让技术团队的“隐性知识”不再沉睡
技术团队常困于知识“存得住却用不好”。AI大模型知识管理平台如同为团队知识装上“智能大脑”,打通文档、代码、日志等碎片信息,实现智能检索、自动归集、动态更新与安全共享。它让新人快速上手、老手高效排障,把散落的经验变成可复用的智慧。知识不再沉睡,经验永不流失。
184 0
|
12月前
|
人工智能 自然语言处理 机器人
9.9K star!大模型原生即时通信机器人平台,这个开源项目让AI对话更智能!
"😎高稳定、🧩支持插件、🦄多模态 - 大模型原生即时通信机器人平台"
396 0

热门文章

最新文章