MWC2024联发科AI手机芯片亮点多多

简介: 近日,联发科在MWC 2024(2024 世界移动通信大会)上展出了一系列令人瞩目的AI和移动通信技术突破,以“连接AI宇宙”(Connecting the AI-verse)的展厅吸引了无数业界精英和媒体的目光。特别是其现场的生成式AI技术展示,更是引发了广泛的关注和热议。

近日,联发科在MWC 2024(2024 世界移动通信大会)上展出了一系列令人瞩目的AI和移动通信技术突破,以“连接AI宇宙”(Connecting the AI-verse)的展厅吸引了无数业界精英和媒体的目光。特别是其现场的生成式AI技术展示,更是引发了广泛的关注和热议。

   实时AI视频生成展示人气爆棚

来到展会现场,今年联发科不仅重点展出了很多端侧生成式AI技术的创新应用,包括SDXL Turbo从文本即时生成图像、Diffusion视频生成技术和端侧生成式AI技能扩充。除此之外,还能看到非常先进的Pre-6G非地面网络(NTN)卫星宽带技术、6G环境计算、物联网5G RedCap解决方案、5G CPE实机功能和Dimensity Auto车用生态合作成果。

可以很明显的看到,联发科不仅凭借天玑9300和8300芯片活跃于高端手机市场,近年来在人工智能领域的技术实力同样非常扎实,全力在助推行业端侧生成式AI的发展,此外在5G、卫星通信、智能汽车和物联网等方面也收获颇丰。

凭借在端侧生成式AI领域的技术创新和体验升级,联发科的AI展区成为本届MWC的一大亮点。其中,SDXL Turbo运用了文本到图像的Stable Diffusion引擎,可以根据用户输入的文本即时生成图像,让现场观众感受到了更快、更安全、更便捷的端侧AI技术。

Diffusion视频生成技术能够根据用户输入的文字或图片快速生成视频,并支持多种动画风格,展现出AI技术在视频内容创作上的广泛应用潜力,让AI手机有了更实用的功能和发展空间。

端侧生成式AI技能扩充的展示也“大秀一把”,通过NeuroPilot AI平台整合LoRA Fusion,实现在设备上实时处理手机正在录制的视频内容,还可以生成不同动画风格的视频。在AI手机大趋势之下,端侧AI的优势显露无疑,不少观众也现场收获了自己专属的“AI卡通化身”。

联发科展区现场新奇有趣的AI体验当然离不开联发科在AI手机芯片领域的卓越实力。天玑9300旗舰 5G 生成式 AI 移动芯片采用开创性全大核CPU架构和业界先进的AI处理器,使得生成式AI处理速度提升到上一代产品的8倍。这种强大的处理能力,配合联发科特有的内存硬件压缩技术NeuroPilot Compression,不仅使得终端设备能高效运行生成式AI应用,还大幅降低了对终端内存的占用。同时,基于NeuroPilot AI平台和NeuroPilot Fusion技术的端侧生成式AI技能扩充,把端侧AI的优势充分利用,也满足了端侧用户对于生成式AI个性化体验的需求。

在推进端侧生成式AI进化和普及上,联发科一直走在行业前列。近年来,联发科不断革新芯片架构,提升AI性能和能效,以满足日益增长的算力需求,同时通过各种模型和算法优化工具,让模型、算法和移动芯片实现软硬件协同,提升端侧生成式AI的运行效率。与此同时,联发科还积极与AI生态伙伴开展密切合作,共同推动从芯片算力到终端应用的创新。

据最新消息,MediaTek天玑9300和天玑8300现已针对 Google Gemini Nano 大语言模型进行优化,在MediaTek先进的AI处理器(APU)和NeuroPilot AI开发平台的加持下,可以为用户提供更加高速且安全的端侧生成式 AI 体验。此外,联发科与谷歌计划携手推出可在天玑9300和天玑8300上运行的 APK,以助力开发者和OEM部署Gemini Nono 应用,加速端侧 AI 应用落地,开创智能手机端侧生成式 AI 巨大产业机遇。

在MWC 2024上,联发科首次展示经过优化的Meta Llama 2 生成式AI 应用,充分利用天玑9300和天玑8300 APU的硬件AI加速技术,赋能手机可以基于文章或长篇内容为用户生成摘要,满足用户快捷发布微博推文、朋友圈的需要。

我们知道,天玑9300还支持百度文心大模型Baidu ERNIE-3.5-SE、百川Baichun AI Baichun、vivo蓝心大模型BLueLM、OPPO AndesGPT大模型,通过连接完整的AI生态,赋能终端设备的生成式AI应用体验。

智能汽车最新合作成果展示

联发科现场展示的AI技术足够惊艳,在通信、智能汽车等技术方面的成果同样令人瞩目。Dimensity Auto与全球汽车生态的合作,不仅推动了汽车智能化的发展,还联合车用系统公司OpenSynergy开发车载HyperVisor虚拟操作系统,打造安全、高性能、高实时性、强健的多域融合系统。此外,与软件公司ACCESS合作,结合其Twine4Car方案,为驾驶员和乘客提供了优异的智能车载驾舱体验和丰富的多屏娱乐服务。

Dimensity Auto 智能座舱和车用资讯娱乐平台可以提供强劲的处理性能,支持运行多个操作系统、多路无线连网接入及管理、多视窗视频同步播放,为驾驶员和乘客带来丰富的 3D 视觉效果和生成式 AI 体验,这一点非常酷。

5G RedCap平台开启5G物联网设备新纪元
   现场展示的联发科T300 RedCap RFSoC平台,为物联网产品带来了5G高效连接,特别适用于对电池续航和连接可靠性要求高的物联网产品。T300采用符合 3GPP 5G R17 标准的 MediaTek M60 调制解调器, 支持多种能效增强功能,包括寻呼早期指示(Paging Early Indication)、UE 寻呼子组(UE Subgrouping )、追踪参考信号辅助同步(TRS info while idle)、PDCCH 自适应监测(PDCCH monitoring adaptation )、RLM 测量放松(RLM relaxation while active)等。

联发科T300平台在是德科技(Keysight)UXM 5G无线测试平台上展现出低功耗的性能和功能表现。值得一提的是,联发科还T300 集成一个主频为 800 MHz 的 CPU,具备高响应速度。

5G CPE三天线传输技术高速连网

此外,联发科在5G CPE设备上展示了T830的新功能, T830凭借三天线传输(3Tx)以及低延迟、低损耗和可拓展吞吐量(L4S)技术带来的高速畅快网络体验,现场可以看到与Anritsu MT8000A 测试平台合作进行的展示。

全球首展Pre-6G卫星宽带体验

在卫星宽带技术方面,联发科现场展示了新一代5G-Advanced卫星测试芯片,可为汽车和其他多种终端设备提供超过100Mbps的数据吞吐量。现场还展出了全球率先以低轨卫星模拟的Pre-6G卫星宽带串流体验。这些展示体现了联发科在卫星通信技术研发上的成果,也为构建Pre-6G NTN用户体验打下坚实基础。

提升总体计算能力,迈向6G环境计算

展望未来,联发科还在本届展会上带来高安全性、无缝高速的虚拟个人网络,有效简化了家用物联网管理、网络存储串流的效率,并可利用周边单个或同时聚合多个空闲设备,提升总体计算能力,从而迈向6G环境计算。

在2024年世界移动通信大会中,AI宇宙凭借其创新技术与深度应用,成为了整个大会的亮点。通过联发科等科技领导企业的前沿研究与业界伙伴的共同合作,我们正迈向一个更智能、更高效的新时代。



http://www.cnaifm.com/gyl/2024-02-28/12273.html

http://www.xzicn.com/xxgy/zhgc/117.html

http://www.xzicn.com/mlzg/tzh/116.html

相关实践学习
阿里云AIoT物联网开发实战
本课程将由物联网专家带你熟悉阿里云AIoT物联网领域全套云产品,7天轻松搭建基于Arduino的端到端物联网场景应用。 开始学习前,请先开通下方两个云产品,让学习更流畅: IoT物联网平台:https://iot.console.aliyun.com/ LinkWAN物联网络管理平台:https://linkwan.console.aliyun.com/service-open
相关文章
|
2月前
|
人工智能 Cloud Native Java
书本大纲:从芯片、分布式到云计算AI时代
本文深入探讨并发编程、JVM原理、RPC框架、高并发系统、分布式架构及云原生技术,涵盖内存模型、同步机制、垃圾回收、网络协议、存储优化、弹性伸缩等核心议题,揭示多线程运行逻辑与高并发实现路径,助你掌握现代软件底层原理与工程实践。
101 6
|
8月前
|
机器学习/深度学习 存储 人工智能
MNN-LLM App:在手机上离线运行大模型,阿里巴巴开源基于 MNN-LLM 框架开发的手机 AI 助手应用
MNN-LLM App 是阿里巴巴基于 MNN-LLM 框架开发的 Android 应用,支持多模态交互、多种主流模型选择、离线运行及性能优化。
5454 80
MNN-LLM App:在手机上离线运行大模型,阿里巴巴开源基于 MNN-LLM 框架开发的手机 AI 助手应用
|
4月前
|
SQL 人工智能 关系型数据库
GitHub 热门!MindsDB 破解 AI + 数据库瓶颈,究竟有什么惊艳亮点?只需 SQL 即可实现智能预测
MindsDB 是一款将 AI 能力直接注入数据库的开源工具,支持 MySQL、PostgreSQL 等多种数据库连接,通过 SQL 即可完成模型训练与预测。它提供 AutoML 引擎、LLM 集成、联邦查询等功能,简化 MLOps 流程,实现数据到智能的无缝衔接。项目在 GitHub 上已获 32.4k 星,社区活跃,适用于客户流失预警、推荐系统、情感分析等场景。开发者无需深入模型细节,即可快速构建智能解决方案。项目地址:https://github.com/mindsdb/mindsdb。
772 0
|
9月前
|
人工智能 算法 前端开发
OmAgent:轻松构建在终端设备上运行的 AI 应用,赋能手机、穿戴设备、摄像头等多种设备
OmAgent 是 Om AI 与浙江大学联合开源的多模态语言代理框架,支持多设备连接、高效模型集成,助力开发者快速构建复杂的多模态代理应用。
682 72
OmAgent:轻松构建在终端设备上运行的 AI 应用,赋能手机、穿戴设备、摄像头等多种设备
|
人工智能 自动驾驶 机器人
吴泳铭:AI最大的想象力不在手机屏幕,而是改变物理世界
过去22个月,AI发展速度超过任何历史时期,但我们依然还处于AGI变革的早期。生成式AI最大的想象力,绝不是在手机屏幕上做一两个新的超级app,而是接管数字世界,改变物理世界。
10142 73
吴泳铭:AI最大的想象力不在手机屏幕,而是改变物理世界
|
8月前
|
人工智能 IDE 程序员
与1.0 相比,通义灵码 2.0 AI 程序员有哪些功能、亮点、优势、场景?
通义灵码2.0相比1.0新增了工程级编码任务、单元测试生成和图片多模态问答等功能,支持多文件代码修改、批量生成单元测试及根据图片内容生成代码建议。亮点包括支持主流IDE、垂直智能体覆盖更多场景、企业级检索增强和灵活对话交互体验。技术优势涵盖多模态上下文感知、快速推理、企业数据个性化及一流代码生成效果。典型应用场景有新功能开发、跨语言编程、单元测试自动生成和错误排查修复。
810 7
|
10月前
|
人工智能 并行计算 程序员
【AI系统】SIMD & SIMT 与芯片架构
本文深入解析了SIMD(单指令多数据)与SIMT(单指令多线程)的计算本质及其在AI芯片中的应用,特别是NVIDIA CUDA如何实现这两种计算模式。SIMD通过单指令对多个数据进行操作,提高数据并行处理能力;而SIMT则在GPU上实现了多线程并行,每个线程独立执行相同指令,增强了灵活性和性能。文章详细探讨了两者的硬件结构、编程模型及硬件执行模型的区别与联系,为理解现代AI计算架构提供了理论基础。
1329 12

热门文章

最新文章