2023需要重点关注的四大AI方向
过去10年,人工智能从实验室走向各行各业,成为一种普遍技术应用于众多领域。根据IDC的数据,2022年全球AI市场规模达到4328亿美元,增长近20%。而Precedence Research预计,到2030年,人工智能市场将突破15.7万亿美元。这种爆炸性增长建立在数据获取与存储成本降低和半导体创新的基础上。
以下是我认为2023年需要重点关注的四大AI方向,这四个方向有望在今年进一步推动AI的发展,并帮助解决行业面临的一些核心挑战。
异构组件集成简化
如何在边缘节点上执行更多人工智能处理是近几年AI领域努力的重要方向之一。可喜的是这一方向上已经产出了很多有价值的创新,今年这个方向依然是我们需要关注的重点方向,只不过关注重点会转向集成和落地。
对于边缘设备,人工智能系统需要执行各种不同的任务,这不仅需要不同类型的算力,还需要不同类型内存、连接和传感器输入。如何将这些异构组件高效、节能、稳定地集成起来是一项巨大的挑战。这项工作涉及其他工程领域,如机械设计、光学设计、电气设计以及数字和模拟半导体设计。
数据中心的集成带来了一系列不同但非常多样化的挑战。为了提供深度计算所需的算力性能,需要将多个核集成到一个芯片上。这些组件主要由密集的数字逻辑组成,如加速大型神经网络所需的基础算力。
人工智能设计工具
随着芯片和制程复杂性的不断增加,人工智能设计工具的采用呈指数级增长。在短短一年间,人工智能设计的商用芯片数量至少增加了一个数量级。随着人工智能设计技术的加速发展,训练数据集变得更加全面,新型工具将带给设计团队更多优势。
随着该技术在未来一年的成熟,由人工智能驱动的设计能力将在芯片设计领域实现生产力突破,并帮助创建更复杂的设计,以满足功率、性能和面积上的需求。今年肯定会有基于AI强化学习用于解决各种设计挑战的应用进入市场,甚至随着技术在未来进一步成熟,人工智能设计可能会成为市场主流。
生成AI
开发新的人工智能应用程序最具挑战性也是最耗时的工作之一是建模,然后对其进行训练和优化以执行特定任务的过程。这催生了对所谓基础模型(也叫大模型)的更多研究。
基础模型是一种人工智能模型,只需设计一次,然后使用非常大的数据集进行训练,以实现各种目标。一旦训练完成,该模型可以适应许多不同的应用,从而减少专门为每个应用程序设计新模型的时间。基础模型的巨大规模允许用户实现以前无法实现的全新功能。
基础模型还推动了去年非常热门的AI技术——生成AI。生成AI专注于创造新的内容,其本质核心是基础模型,能够训练非常庞大的数据,包括文本、图像、语音,甚至是来自传感器的3D信号。根据输入,可以训练相同的基础模型来合成新内容,例如绘画、创作音乐,甚至创建聊天机器人。去年年底大火的ChatGPT就是基础模型和生成AI的典型应用。
生成AI将使创建新内容变得极其容易,具有极高的应用价值。随着技术的成熟,加上ChatGPT引爆市场,相信在今年生成AI会爆发式成长。
因果AI
最后,我依然会持续关注因果AI。深度学习的困境之一是模型的不可解释性,解决这一问题的一种方法是引入因果关系。尽管因果AI目前还处于早期,但已经在医疗健康、药品研发、金融服务、制造业和供应链组织等特定领域广泛采用。通过将知识图与因果图相结合,并进行模拟,从而超越依赖历史数据的基于相关性的机器学习。因果预测可以通过使因果关系透明来提高人工智能的解释能力。
另一方面,阻碍人工智能发展的一个重要瓶颈是缺乏高质量的标签数据。虽然我们今天已经看到了进展,但2023年仍将不会得到根本性解决。解决这一问题目前有2个方向,一是自监督学习( self-supervised learning),二是因果AI。自监督学习使用自监督算法对模型进行预训练,然后根据特定任务对模型进行微调;而因果AI不需要大数据样本。这方面最好、最有效的例子是NLP(自然语言处理),其中掩蔽语言建模(Masked Language Modeling,使模型预测句子中隐藏的单词)和因果语言建模(Causal Language Modeling,让模型预测句子中下一个单词)技术彻底改变了传统算法。
$$
\ast\ast\ast
$$
以上是我对2023年AI技术趋势的一个预测,也是我个人关注的重点。AI的方向非常多,相信每个方向在2023年都会有各自的成果的进展,欢迎大家留言评论,与我交流。
最后,祝大家2023年兔年大吉,技术”兔“飞猛进,”兔“ Be No. 1!