给5G基带也加上机器学习单元:高通的AI脑洞还有太多

简介: 给5G基带也加上机器学习单元:高通的AI脑洞还有太多

最先进的人工智能技术,并不总意味着数块 GPU、每秒算力上 E 的超算。

应用最广泛的移动芯片上,人们正在使用最先进的 AI 技术。最近,高通再次利用 AI 实现了「突破性的 5G 效能」。

在巴塞罗那举办的 MWC 2022 国际通信展上,高通 CEO 安蒙(Cristiano Amon)发布了全球首款搭载 AI 计算核心的 5G 通信基带骁龙 X70。


在显卡、手机 CPU 旁边出现 AI 计算单元之后,现在连通信基带也要专门的 AI 芯片加持了 ,这不仅让人要问:「有必要吗?」

首款搭载 AI 核心的 5G 基带

根据高通官方的表述,骁龙 X70 是高通第 5 代 5G 调制解调器和射频系统,作为全球首款 5G AI 处理器,可以实现包括 10Gbps 5G 下载速度、3.5Gbps 上传速度、更低时延、更强的网络覆盖和能效。

为实现这样的能力,作为一款 5G 基带,骁龙 X70 也搭载了专门的 AI 处理单元,配合整套基于人工智能的优化机制,算法控制的范围涵盖了从毫米波波束管理、天线调谐到网络选择、功耗等所有内容。


骁龙 X70 上的 5G AI、低时延套件和四载波聚合技术可以实现更大范围的网络覆盖、信号质量和低时延。其中,5G AI 套件专为低于 6 GHz 和毫米波 5G 链路的 AI 驱动优化而设计,实现了 AI 辅助信号反馈、动态优化和 AI 辅助毫米波波束管理。

具体来说,在移动通信系统中,终端(手机)需要实时探测信道状态上报基站,基站则在下行调度时为终端选择较合适的调制方式、更好的时频资源。通过 AI 算法的加持,信道状态的预测和反馈将更加精准,基站也能实现更好的动态优化,从而提升通信效率。


通过仿真数据可以发现,在突发数据流量情境中,AI 辅助信道状态反馈和优化能够针对小区边缘、中段和中央分别实现 20%、16% 和 24% 的下行吞吐量提升。典型数据流量情境中,AI 算法能让手机在小区边缘获得的下行吞吐量增益达到 26%,中段下行吞吐量增益达 12%。

骁龙 X70 实现了全球首个 AI 辅助毫米波波束管理,算法管理的波束可以智能化地对不确定的环境进行预测,实现更好的网络覆盖与稳定性。

实际应用中,手机通常能接收到多种不同的网络频率。在多频率和不同网络制式的环境下,X70 上的 AI 还可以智能识别和检测不同连接的状态,减少卡顿,提高用户体验。

最后还有 AI 辅助自适应天线调谐,这项技术用来避免「死亡之握」,通过智能侦测握持终端的情况,手机可以实时动态调谐天线。

在新技术加持之下,骁龙 X70 的能效提升了 60%。高通宣布,骁龙 X70 预计于 2022 年下半年开始向客户出样,商用移动终端预计在 2022 年晚些时候面世。

手机芯片只是一小步

人们用 AI 为 5G 增强信号的尝试已不是头一次——在当前骁龙 8 集成的骁龙 X65 上,机器学习算法就可以通过用户握持和使用智能手机的方式动态调整无线接收功率,帮助最大化信号强度。在手机上,我们经常可以看到最先进的人工智能应用。

最近一段时间,小米 12、OPPO Find X5、iQOO 9、荣耀 Magic 4…… 各家手机厂商的新旗舰机型都用上了最新一代高通骁龙 8 移动平台,AI 在其中低调的发挥着强大的作用。

这些新机不仅有更快的充电速度、更好的屏幕,还有不少新功能:如在录音时自动语音转文字、排版区分说话人的 APP,实时为视频增加翻译字幕的翻译机,注视亮屏,隔空手势操作等功能也不再是新奇的概念。

还有更能体现手机智力的技术:在你看信息时,如果前摄像头发现有别人也在盯着屏幕看,手机会自动隐藏通知详情,避免你的泄露隐私。

OPPO Find X5 Pro 上,ColorOS 12.1 的部分新功能。

在日常使用处理器性能普遍过剩的情况下,各家手机厂正寻求利用 AI 能力提供更好体验,这些新功能的背后,骁龙 8 的 AI 算力功不可没。

这枚芯片搭载的第 7 代 AI 引擎,将 GPU、Hexagon、CPU 的全部 AI 能力整合在一起,实现了性能翻四倍的表现。另外在第 3 代传感器中枢中还有一个「always on」芯片模块,可以用极低的功耗驱动摄像头 24 小时在线,实现二维码识别、自动唤醒等功能。

手机玩明白了,但高通的想法还远不止于此,在巴塞罗那展会上,CEO 安蒙对公司的「统一技术路线图」进行了分享。

「我们的思考从不限于特定的设备和技术,而是通过互联的力量将多种不同能力推向终端,从机器学习图形处理能力到语音识别能力,再到更高算力需求的自动驾驶领域,」安蒙说道。「在智能云成熟之后,我们需要重新思考端侧设备的智能,而新能力可以让机器理解周围环境,它们拥有很高的算力,能耗也很低。」


据统计,全球云计算的年增长率约为 35%,几乎所有设备都有连接云端的需求。

高通早在 2019 年便推出了自己的首款数据中心 AI 推理加速器 Cloud AI 100,目标为工业和商业领域中的边缘推理工作负载,这款芯片在部分任务中推理效率超过了英伟达同级产品。


从架构上看,目前的旗舰手机芯片骁龙 8 已有端云互联的新能力:它首发搭载的 ARM v9 指令集是近十年的最大一次更新,在安全性、AI 能力、可伸缩矢量扩展和 DSP 等方面进行了升级,更重要的是,ARM v9 为芯片实现高性能计算做了铺垫。

为满足人们不断膨胀的算力需求,ARM v9 用上了全新 SVE2(可伸缩矢量扩展)指令集,增强了 ARM 架构在高性能计算、5G 网络、虚拟现实、AI 和 DSP 等方面的性能。在手机、电脑、云服务器上的 ARM 芯片,以往虽然看起来都是同样的架构,但却用着不同大小的寄存器。在 ARM v9 上,指令集首次得到了统一,开发者们的应用可以一次编译,在所有设备端运行。

让手机变成云超算?我们或许可以期待在骁龙 8 的手机上,未来会出现一些神奇的应用。基于 ARM 架构,高通的 AI 算力目前已经覆盖家庭、工业、智慧城市物联网,端侧设备和自动驾驶,包括 IoT 终端、手机、PC、XR、汽车等等,面向不同场景和终端有不同的算力,同时又互相融合。


不止于手机,高通的技术正面向不同应用场景「扩展 AI 性能」 ,先进的通讯技术和更强的端侧算力将重构人工智能应用的形态,在各类终端上,人工智能将无处不在。  高通的 AI 工程师:发表论文,著书立说

高通的 AI 技术宣传可能并不像英伟达、谷歌那么高调,但却实实在在地出现在我们手上,高通的研究者在学界也有很高的影响力。

近年来,高通 AI Lab 发表的学术论文越来越多,被顶会收录的研究,仅计算机视觉领域的就超过 20 篇。

这些技术被很快应用到了实践中,比如骁龙 8 的新能力,背景虚化 + 面部识别 + 姿态识别 + 手势识别的多神经网络识别,其中面部特征点多达 300 个:


该技术来自于计算机视觉顶会 CVPR 2021 收录的一篇论文《Skip-Convolutions for Efficient Video Processing》。

在这篇文章中,高通 AI Lab 提出了名为 Skip-Convolutions(跳跃卷积)的新卷积层,在图像识别神经网络中替代所有常规卷积层后把视频流任务的计算量降低了 3-4 倍,而没有任何精度下降。

算法技术和芯片算力的提升,让骁龙 8 在实时的视频目标检测、图像识别任务中,可以同时跑多个 AI 模型,带来复杂的效果。

前几天 AI 圈内有一个新闻,也多少透露了一点高通在 AI 领域的领先水准。阿姆斯特丹自由大学助理教授、前高通 AI 研究中心研究员 Jakub Tomczak 在推特上公布了全新著作《深度生成模型》的进展,目前这本书已经正式出版。


Tomczak 在高通 AI 研究中心任研究员时,曾在视频压缩和机器学习贝叶斯优化等方面发表过多项研究,被 CVPR、NeurIPS、ICCV 等顶尖学术会议收录。这本书中,他通过结合概率模型和深度学习来处理构建人工智能系统的问题。它超越了典型的预测模型,将监督学习和非监督学习结合在一起。由此产生的范式称为「深度生成模型」,它从生成视角感知周围的世界。

阿姆斯特丹大学机器学习研究主席、也是和高通有更深渊源的前高通技术副总裁 Max Welling 还为这本书写下了序言。《深度生成模型》旨在吸引对该领域感兴趣的学生、工程师和研究人员,还在 GitHub 上开放了相关内容的代码,引来机器学习社区的欢迎。

有学术范的 AI 研究员,创造的新技术才可以改变世界。高通在 AI 领域的故事,还在不断延伸。

相关文章
|
3月前
|
存储 人工智能 大数据
AI开发新范式,PAI模型构建平台升级发布
本次分享由阿里云智能集团产品专家高慧玲主讲,聚焦AI开发新范式及PAI模型构建平台的升级。分享分为四个部分,围绕“人人可用”和“面向生产”两大核心理念展开。通过降低AI工程化门槛、提供一站式全链路服务,PAI平台致力于帮助企业和开发者更高效地实现AI应用。案例展示中,介绍了多模态模型微调在文旅场景的应用,展示了如何快速复现并利用AI解决实际问题。最终目标是让AI技术更普及,赋能各行业,推动社会进步。
|
6天前
|
机器学习/深度学习 人工智能 自然语言处理
AI训练师入行指南(三):机器学习算法和模型架构选择
从淘金到雕琢,将原始数据炼成智能珠宝!本文带您走进数字珠宝工坊,用算法工具打磨数据金砂。从基础的经典算法到精密的深度学习模型,结合电商、医疗、金融等场景实战,手把手教您选择合适工具,打造价值连城的智能应用。掌握AutoML改装套件与模型蒸馏术,让复杂问题迎刃而解。握紧算法刻刀,为数字世界雕刻文明!
38 6
|
1月前
|
人工智能 智能设计 自然语言处理
2024云栖大会回顾|PAI ArtLab x 通往AGI之路系列活动,PAI ArtLab助力行业AI创新
2024云栖大会回顾|PAI ArtLab x 通往AGI之路系列活动,PAI ArtLab助力行业AI创新
|
3天前
|
机器学习/深度学习 人工智能 自然语言处理
AI训练师入行指南(四):模型训练
本文以“从璞玉到珍宝”为喻,深入探讨AI模型训练的全过程。数据集是灵魂原石,领域适配性、质量和规模决定模型高度;优化器如刻刀手法,学习率调整和正则化确保精细雕刻;超参数优化与多模态注意力机制提升性能。通过案例解析(如DeepSeek-Chat、通义千问),展示特定数据如何塑造专属能力。最后提供避坑工具箱,涵盖过拟合解决与资源不足应对策略,强调用`torch.save()`记录训练历程,助力打造智能传世之作。
23 0
|
2月前
|
机器学习/深度学习 数据采集 人工智能
容器化机器学习流水线:构建可复用的AI工作流
本文介绍了如何构建容器化的机器学习流水线,以提高AI模型开发和部署的效率与可重复性。首先,我们探讨了机器学习流水线的概念及其优势,包括自动化任务、确保一致性、简化协作和实现CI/CD。接着,详细说明了使用Kubeflow Pipelines在Kubernetes上构建流水线的步骤,涵盖安装、定义流水线、构建组件镜像及上传运行。容器化流水线不仅提升了环境一致性和可移植性,还通过资源隔离和扩展性支持更大规模的数据处理。
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
Java+机器学习基础:打造AI学习基础
随着人工智能(AI)技术的飞速发展,越来越多的开发者开始探索如何将AI技术应用到实际业务场景中。Java作为一种强大的编程语言,不仅在企业级应用开发中占据重要地位,在AI领域也展现出了巨大的潜力。本文将通过模拟一个AI应用,从背景历史、业务场景、优缺点、底层原理等方面,介绍如何使用Java结合机器学习技术来打造一个AI学习的基础Demo。
121 18
|
14天前
|
人工智能 JSON 物联网
基于 PAI-ArtLab 使用 ComfyUI 搭建对话式 AI 女友
本实验介绍了一款名为“AI虚拟女友——胡桃”的应用,通过ComfyUI后端与WebUI展示效果,结合LLM节点和知识图谱工具包(KG),实现角色人设稳定及长期记忆功能。用户可通过输入信息与AI互动,并自定义人设知识图谱和角色LoRA。操作步骤包括登录PAI ArtLab平台、加载工作流文件、配置角色参数并与AI对话。此外,还提供了Graph RAG技术详解及常见问题解答,帮助用户更好地理解和使用该系统。
|
3月前
|
SQL 人工智能 关系型数据库
AI时代下的PolarDB:In-DB一体化模型训练与推理服务
本次分享主题为“AI时代下的PolarDB:In-DB一体化模型训练与推理服务”,由阿里云资深专家贾新华和合思信息刘桐炯主讲。内容涵盖PolarDB的关键能力、AI硬件与软件结构支持、典型应用场景(MLops、ChatBI、智能搜索),以及合思实践案例——AI对话机器人提升客户响应效率。通过简化流程、SQL统一管理及内置算法,PolarDB显著降低了AI应用门槛,并在多个行业实现最佳实践。
164 3
|
3月前
|
人工智能 安全 大数据
PAI年度发布:GenAI时代AI基础设施的演进
本文介绍了AI平台在大语言模型时代的新能力和发展趋势。面对推理请求异构化、持续训练需求及安全可信挑战,平台推出了一系列优化措施,包括LLM智能路由、多模态内容生成服务、serverless部署模式等,以提高资源利用效率和降低使用门槛。同时,发布了训推一体调度引擎、竞价任务等功能,助力企业更灵活地进行训练与推理任务管理。此外,PAI开发平台提供了丰富的工具链和最佳实践,支持从数据处理到模型部署的全流程开发,确保企业和开发者能高效、安全地构建AI应用,享受AI带来的红利。
|
3月前
|
人工智能 容灾 Serverless
AI推理新纪元,PAI全球化模型推理服务的创新与实践
本次分享主题为“AI推理新纪元,PAI全球化模型推理服务的创新与实践”,由阿里云高级产品经理李林杨主讲。内容涵盖生成式AI时代推理服务的变化与挑战、play IM核心引擎的优势及ES专属网关的应用。通过LM智能路由、多模态异步生成等技术,PAI平台实现了30%以上的成本降低和显著性能提升,确保全球客户的业务稳定运行并支持异地容灾,目前已覆盖16个地域,拥有10万张显卡的推理集群。

热门文章

最新文章