AI 工程化发展及趋势-AI 架构师成长计划(一)|学习笔记

本文涉及的产品
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
简介: 快速学习 AI 工程化发展及趋势-AI 架构师成长计划(一)。

开发者学堂课程【PAL 平台学习路线:机器学习入门到应用AI 工程化发展及趋势-AI 架构师成长计划(一)】学习笔记,与课程紧密联系,让用户快速学习知识。

课程地址:https://developer.aliyun.com/learning/course/855/detail/14132


AI 工程化发展及趋势-AI 架构师成长计划(一)

 

内容介绍:

一、课程介绍

二、人工智能行业发展趋势

三、AI

 

一、课程介绍

Science 和 Intel 合办的架构师成长计划的 program。

扩展内容,其实大数据和 AI 的工程有它的相关性,这个也是为什么我们像我们这种做分布式大数据的。比如像 Jeff Dean 其实也是类似的一个趋势,先是做大规模的分布式系统以及存储系统,计算系统。慢慢演进到的 AI 系统。

1.目录

(1)首先我会讲一下人工智能的趋势,以及这个趋势背景下对于工程需求的要求。

(2)从深度学习和机器学习两个大方面来阐述在这两个大的板块上面,对于 AI 架构师的要求和思路。

(3)AI工程在阿里云上案例


二、人工智能行业发展趋势

1.人工智能发展史

 image.png

人工智能行业的发展趋势,其实人工智能已经从上个世纪50年代,从图灵测试起,大家都在想怎么样能够将智能赋能给机器。其实人工智能到今天有三波的热潮。

(1)第一次浪潮

最开始有一波热潮。是怎么做逻辑推理的理论。因为受限于算法及模型的局限。大家发现推理出来的机器人虽然能够做一些有趣的任务,但是他还是像儿童一样的,他的智能还是非常的弱。

(2)重整旗鼓

在上个世纪80年代到90年代。这个诞生了很多的仿生的算法,或者说很多的算法的创新。包括现在大家耳熟能详的像神经网络、遗传算法、模拟退火。在那个时代都已经诞生出来了,有非常多的各种各样的算法。但是因为这个算法很多情况下,如果希望他能够有很好的效果,往往需要非常大量的数据量,在那个时候其实数据量的积累非常有限,也需要很昂贵的计算资源。那时候也没有这样的的资源,就造成我们虽然有想法,但是这个算法迟迟不能够得到一个很好的效果,或者说能够战胜人类的一个效果。

(3)现代 AI 的曙光

在近50年,在最近的五年或者是十年是一个人工智能爆发的时代,是因为随着人类的工业的提高,摩尔定律不断的去推动硬件的能力的提高。使得我们拥有了海量的计算能力。

同时因为互联网的发展,大家都会在互联网上去做自己日常需要的事情,就像现在看到的,你已经离不开互联网了,因为在互联网上进行购物,会进行订餐,叫车,出行服务,旅游等等,这所有的数据其实都会在互联网上进行有效的积累,正是因为这么大的数据的积累,再加上算例使得我们有机会能够去训练更好的模型。而这个模型的结果在近十年已经开始在某些领域能够去战胜人类。包括视觉,包括有一些细分场景的语言类或是语音类的场景。语音类的场景。

(4) 所以人工智能在诞生60年后进入了一个快速增长的爆发期。现代科技大家非常耳熟能详的热词就是大数据以及 AI 。我们在 AI 上已经投射到各个行业。我们都在想怎么样利用 AI 革命这个行业,或者说充分的去加速行业效率的提升。包括我们在语音识别有一些人工智能、机器人、城市大脑、图像识别、智能家居、影像。有一些医学辅助、智能出行、翻译、无人机等等。

image.png 

2.人工智能行业要素

(1)三要素

这个背后因为人工智能的三要素在发挥作用,数据、计算力和算法,这是因为有了很大的数据以及计算算力。虽然在大类的算法上面,包括我们的神经网络、模拟退火,好像算法的大类没有太多的变化。

(2)创新发展

当然也有很多创新,但我们好像还是用着80年代,90年代的算法,但是我们在模型结构上面,包括神经网络,现在的深度学习非常热。但神经网络的结构上面我们其实有了大量的能力去进行各种探索,比如说我们可能在 CV 上面探索各种各样的网络,然后在 NLP 上面我们从 BiLSTM 有 sequence to sequence,以及现在的 BERT 模型等等。这是因为有计算力,使得算法工程师能够非常快速地尝试各种各样的想法,使得我们的算法的更新也非常快,所以使得人工智能行业得到快速的发展。

 

3.AI 发展方向

人工智能现在的发展的方向,正是因为我们刚刚说的那些前提条件使得现在的人工智能

 image.png

(1)应用

第一,他在应用上是无所不无处不在的,他有小型化,有大型化,所谓的小型化就是说,人工智能可以部署在非常多的端的设备上,我们一般叫做 IOT,你的手机其实是一个很 Powerful 的端,除了这个之外,其实还可以部署在很小的设备上面。比如说家里面的智能家居,这些东西都开始具有了一些智能化。但同时也有一些大型化,所谓的大型化,比如说城市有一个决策中心。这个中心我们称之为城市大脑,模型会非常的大,我们其实是因为硬件的提高。能够负担得起这么大型化的模型的,所以像现在大家可能会听到过  GTP-3这样的模型,已经达到了1750亿的参数的规模。应用其实是无处不在的。

(2)工程化

第二是工程化,正是因为人工智能的爆发,现在对于工程的要求其实是越来越高了。因为大家都希望自己的想法,自己的一些算法能够快速的进行落地。能够快速的去迭代,能够快速的推到我们的消费者端。如何把研究员的设想快速的变成可用状态。这个方面其实是 AI 工程起到很大的作用,大家可以看到随 AI 的爆发。

AI 工程诞生很多框架,框架的迭代也非常快。从早期的 Caffe 到中间有很多的深度学习框架。包括 Theano 、Kaldi 等等,到了后面非常流行的像 TensorFlow 的推出,去注重训推一体,训练和推理的联动,到后面像 PyTorch 注重研究性质,注重模型的开发的迭代效率等等。AI 的工程一直是在应用性上面以及自动化上面,去做很多的工作。在阿里我们会强调云其实对于 AI 也是非常重要的,我们刚刚说到其实在 AI 的爆发是因为海量大数据在支持,这个数据要存在哪,显然让存在你本地有的时候是很难的,你需要有一个分布式的存储。

云的平台给了大家这么一个很好的弹性的环境。使得你能够很好的做大规模的数据的处理分析,同时 AI 工程因为大量的用到了易购的机器这些东西,您可以通过它的弹性去帮助 AI 的企业。能够快速的去迭代自己的模型,能更快速的去引进自己的模型,所以平台的支持和云化也是 AI 工程的一个非常明显的趋势。

(3)模型的研发和迭代效率加快

第三是模型的研发和迭代效率在加快, CV 和 NLP 模型的迭代是非常快的,也是人类对于精度和性能的不断要求。因为应用场景都非常的大。所以模型的迭代和效率的提升,能够带来巨大的商业的价值。所以迭代的速度会快。

(4)算法和算力

算法和算力,因为算例能够推动创新。新算法的更新也非常快。实时化的要求也在增加。我等一下会说到更细分的场景。对于实时化的模型的需求,我们现在看到的一个趋势就是 Online learning,特别是对于所谓的搜索、推荐和广告行业是非常明显的需求。

(5)数据积累推动新算法的落地

数据的积累能够推动算法达到这样的高度的一个前提条件。我们一直都说其实数据才定义了模型的高度,而算法其实只是让这个模型去逼近数据能够定义的高度。

 

三、AI

1.AI 无处不在

其实就更多的展开了,应用无处不在,部署其实也是无处不在的,下面就需要我们有平台,需要有框架的支持。

不然你不可能支持这么多含量的业务,这么多含量的设备,如果还是按照原来的一种模式,算法的同学涉及到一个算法,我们根据这个算法的模型,手工的去写一套执行的框架。这样子完全不 scale,不能够在发展的行业上快速开展。工程的可复制性太差,不太 scale,所以我们必须要有很好的框架的支持。

image.png

2.技术易用性加速 AI 自动化发展

技术上面我们越来越强调 AI 的自动化,就会用很多的技术去提高自动化,包括通过编译优化,包括通过分布式的方式,甚至是更进一步的向 Auto machine learning 帮助我们的算法工程师,使得他们更加的 focus 聚焦业务的算法的本身,而由系统来去帮助他去做高校的执行。所以从 AI 的工程或者从 AI 架构师,至少我本人的愿景是我们需要去做很好的 AI 的自动化。

image.png

3.AI 自动化技术:编译优化

AI 的自动化的核心概念,就是希望把算法工程师从复杂的分布式环境以及从复杂的工程中解放出来。使得他去注重他要去做什么,而不要去注重他要怎么做,怎么去做由 AI 的工程系统去帮助他达到高可用。大规模的分布式训练,高性能的推理以及低成本的状态

image.png

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
相关文章
|
29天前
|
人工智能 前端开发 编译器
【AI系统】LLVM 架构设计和原理
本文介绍了LLVM的诞生背景及其与GCC的区别,重点阐述了LLVM的架构特点,包括其组件独立性、中间表示(IR)的优势及整体架构。通过Clang+LLVM的实际编译案例,展示了从C代码到可执行文件的全过程,突显了LLVM在编译器领域的创新与优势。
49 3
|
23天前
|
机器学习/深度学习 人工智能 并行计算
【AI系统】Kernel 层架构
推理引擎的Kernel层负责执行底层数学运算,如矩阵乘法、卷积等,直接影响推理速度与效率。它与Runtime层紧密配合,通过算法优化、内存布局调整、汇编优化及调度优化等手段,实现高性能计算。Kernel层针对不同硬件(如CPU、GPU)进行特定优化,支持NEON、AVX、CUDA等技术,确保在多种平台上高效运行。
75 32
|
23天前
|
存储 机器学习/深度学习 人工智能
【AI系统】计算图优化架构
本文介绍了推理引擎转换中的图优化模块,涵盖算子融合、布局转换、算子替换及内存优化等技术,旨在提升模型推理效率。计算图优化技术通过减少计算冗余、提高计算效率和减少内存占用,显著改善模型在资源受限设备上的运行表现。文中详细探讨了离线优化模块面临的挑战及解决方案,包括结构冗余、精度冗余、算法冗余和读写冗余的处理方法。此外,文章还介绍了ONNX Runtime的图优化机制及其在实际应用中的实现,展示了如何通过图优化提高模型推理性能的具体示例。
53 4
【AI系统】计算图优化架构
|
8天前
|
机器学习/深度学习 存储 人工智能
基于AI的实时监控系统:技术架构与挑战分析
AI视频监控系统利用计算机视觉和深度学习技术,实现实时分析与智能识别,显著提升高风险场所如监狱的安全性。系统架构包括数据采集、预处理、行为分析、实时决策及数据存储层,涵盖高分辨率视频传输、图像增强、目标检测、异常行为识别等关键技术。面对算法优化、实时性和系统集成等挑战,通过数据增强、边缘计算和模块化设计等方法解决。未来,AI技术的进步将进一步提高监控系统的智能化水平和应对复杂安全挑战的能力。
|
26天前
|
存储 人工智能 监控
【AI系统】推理系统架构
本文深入探讨了AI推理系统架构,特别是以NVIDIA Triton Inference Server为核心,涵盖推理、部署、服务化三大环节。Triton通过高性能、可扩展、多框架支持等特点,提供了一站式的模型服务解决方案。文章还介绍了模型预编排、推理引擎、返回与监控等功能,以及自定义Backend开发和模型生命周期管理的最佳实践,如金丝雀发布和回滚策略,旨在帮助构建高效、可靠的AI应用。
96 15
|
29天前
|
人工智能 并行计算 程序员
【AI系统】SIMD & SIMT 与芯片架构
本文深入解析了SIMD(单指令多数据)与SIMT(单指令多线程)的计算本质及其在AI芯片中的应用,特别是NVIDIA CUDA如何实现这两种计算模式。SIMD通过单指令对多个数据进行操作,提高数据并行处理能力;而SIMT则在GPU上实现了多线程并行,每个线程独立执行相同指令,增强了灵活性和性能。文章详细探讨了两者的硬件结构、编程模型及硬件执行模型的区别与联系,为理解现代AI计算架构提供了理论基础。
68 12
存储 人工智能 自然语言处理
54 6
|
26天前
|
机器学习/深度学习 人工智能 API
【AI系统】昇腾异构计算架构 CANN
本文介绍了昇腾 AI 异构计算架构 CANN,涵盖硬件层面的达·芬奇架构和软件层面的全栈支持,旨在提供高性能神经网络计算所需的硬件基础和软件环境。通过多层级架构,CANN 实现了高效的 AI 应用开发与性能优化,支持多种主流 AI 框架,并提供丰富的开发工具和接口,助力开发者快速构建和优化神经网络模型。
37 1
|
29天前
|
机器学习/深度学习 人工智能 前端开发
【AI系统】AI 编译器基本架构
本文承接前文关于AI编译器发展的三个阶段,深入探讨通用AI编译器架构。文章首先回顾现有AI编译器架构,如PyTorch的转换流程及优化策略,然后介绍理想化的通用AI编译器架构,涵盖从前端接收多框架模型输入到后端生成特定硬件代码的全过程。重点解析了编译器的中间表达IR、前端与后端优化技术,以及现有AI编译器全栈产品的层次结构,为读者提供了全面的技术概览。
54 2
|
1月前
|
机器学习/深度学习 存储 人工智能
【AI系统】模型演进与经典架构
本文探讨了AI计算模式对AI芯片设计的重要性,通过分析经典模型结构设计与演进、模型量化与压缩等核心内容,揭示了神经网络模型的发展现状及优化方向。文章详细介绍了神经网络的基本组件、主流模型结构、以及模型量化和剪枝技术,强调了这些技术在提高模型效率、降低计算和存储需求方面的关键作用。基于此,提出了AI芯片设计应考虑支持神经网络计算逻辑、高维张量存储与计算、灵活的软件配置接口、不同bit位数的计算单元和存储格式等建议,以适应不断发展的AI技术需求。
40 5