何恺明CV课程 | AI大咖说

简介: 麻省理工学院(MIT)电气工程与计算机科学系(EECS)副教授何恺明开设了两门精彩课程:“Advance in Computer Vision”和“Deep Generative Models”。何恺明是计算机视觉和深度学习领域的杰出科学家,曾提出深度残差网络(ResNet)等重要成果。这两门课程不仅涵盖了最新的研究前沿,还由何恺明亲自授课,内容涉及卷积神经网络、生成对抗网络、变分自编码器等,是学习计算机视觉和生成模型的宝贵资源。

今天,我要为大家介绍麻省理工学院(MIT)电气工程与计算机科学系(EECS)副教授何恺明开设的两门精彩课程——“Advance in Computer Vision”和“Deep Generative Models”。这两门课程不仅涵盖了计算机视觉和生成模型的最新研究前沿,还由一位在计算机视觉领域享有盛誉的科学家亲自授课,绝对不容错过。

一、何恺明(Kaiming He)

何恺明(Kaiming He)是一位在计算机视觉和深度学习领域具有卓越贡献的人工智能科学家。以下是对他的详细介绍:

个人背景

  • 出生与教育:何恺明于1984年出生于中国广东省广州市,2003年毕业于广州市执信中学,同年以高考满分900分的成绩成为广东省高考状元,并进入清华大学物理系基础科学班就读。在清华大学期间,他连续3年获得清华奖学金,2007年获得学士学位。之后,他进入香港中文大学攻读研究生,师从汤晓鸥教授,2011年获得信息工程哲学博士学位。
  • 职业经历:何恺明的职业生涯始于微软亚洲研究院(MSRA),他在实习期间就展现出了卓越的研究能力。毕业后,他正式加入MSRA工作。2016年8月,他离开微软,加入Facebook AI Research(FAIR)担任研究科学家。2024年2月,他加入麻省理工学院(MIT)电气工程与计算机科学系(EECS),担任副教授。

学术成就

  • 深度残差网络(ResNet):何恺明是深度残差网络的主要开发者之一。ResNet解决了深度网络中梯度传递的难题,使得神经网络能够达到前所未有的深度,从而获得了以前难以实现的能力。这一成果为人工智能领域做出了基础性贡献,并促成了多个突破性的成果,包括AlphaGo、AlphaFold和ChatGPT等。
  • 论文与奖项:何恺明在计算机视觉和深度学习领域发表了一系列极具影响力的论文,多次获得最佳论文奖。例如,他的第一篇论文就获得了IEEE国际计算机视觉与模式识别会议(CVPR)2009年度最佳论文奖,这是CVPR创办25年以来首次有华人乃至亚洲学者获奖。此外,他还获得了CVPR 2016、ICCV 2017等最佳论文奖。
  • 其他贡献:除了ResNets之外,何恺明还提出了许多其他重要的方法和模型,如Mask R-CNN等。这些方法和模型在计算机视觉领域具有广泛的应用价值。

荣誉与奖项

  • 未来科学大奖:2023年8月,何恺明因提出深度残差学习为人工智能做出的基础性贡献,与孙剑(已故)、任少卿、张祥雨共同获得未来科学大奖数学与计算机科学奖。
  • AI 2000人工智能全球最具影响力学者榜单:2022年,何恺明入选AI 2000人工智能全球最具影响力学者榜单,综合排名第一。
  • 其他荣誉:何恺明还获得了许多其他荣誉和奖项,如CVPR大会PAMI青年研究者奖、香港中文大学工程学院杰出校友等。

二、Advance in Computer Vision(计算机视觉进展)

image.png

这门课程是MIT电气工程与计算机科学系开设的计算机视觉高级课程,由何恺明等四位教授共同讲授。课程涵盖了卷积神经网络的基础知识、经典卷积神经网络的分析(包括LeNet、AlexNet和VGG)以及可视化等内容。通过这门课程,学生可以深入了解计算机视觉领域的基本原理和最新研究动态。何恺明的第一节课便赢得了学生的热烈掌声,他的讲解深入浅出,让复杂的卷积神经网络知识变得易于理解。

课程官网:https://advances-in-vision.github.io/

  • 卷积神经网络的基础知识:课程首先介绍了卷积神经网络(CNN)的基本概念,包括卷积层、池化层、全连接层等组成部分,以及它们在图像识别、分类等任务中的应用。
  • 经典卷积神经网络的分析:课程详细分析了LeNet、AlexNet、VGG等经典卷积神经网络的结构和性能,并讨论了它们在不同任务中的优缺点。
  • 可视化技术:为了帮助学生更好地理解卷积神经网络的工作原理,课程还介绍了可视化技术,包括特征图可视化、滤波器可视化等,使学生能够直观地观察卷积神经网络在不同层级的特征提取和表示能力。

三、Deep Generative Models(深度生成模型)

image.png

这门课程主要介绍人工智能领域中常用的生成模型,包括变分自编码器(VAE)、自回归模型(AR)、生成对抗网络(GAN)和扩散模型等。课程不仅涵盖这些模型的基本原理和应用,还介绍了最新的前沿研究。随着生成式人工智能(AIGC)时代的到来,无论是基于大语言模型的聊天助手,还是视觉领域的文生图和文生视频模型,都属于深度生成模型的范畴。因此,这门课程被视为学习AIGC理论和应用的良好入门资源。

课程分为讲师讲座、客座讲座和学生研讨会,要求学生参加所有讲座和研讨会,每两周完成一次习题集,并在研讨会上发表一篇论文(20分钟演示+10分钟讨论和QA)。课程已经进行到了第十周,主题涵盖了深度生成模型的简介、变分自编码器、自回归模型、生成对抗网络和扩散模型等内容。接下来的主题将包括视频、3D、几何、机器人、材料科学、蛋白质和生物学等领域的应用。

课程官网及PPT资源:https://mit-6s978.github.io/

  • 生成模型的基本概念:课程首先介绍了生成模型的基本概念,包括概率模型、生成过程和推断过程等,为后续的学习打下基础。
  • 变分自编码器(VAE):课程详细讲解了变分自编码器的原理、结构、训练方法和应用,包括在图像生成、语音合成等领域的应用。
  • 自回归模型(AR):课程介绍了自回归模型的基本原理和训练方法,并讨论了它们在自然语言处理、图像生成等领域的应用。
  • 生成对抗网络(GAN):课程深入讲解了生成对抗网络的原理、结构、训练方法和应用,包括在图像生成、视频合成等领域的应用。同时,还介绍了GAN的最新研究动态,如条件GAN、Wasserstein GAN等。
  • 扩散模型:课程介绍了扩散模型的基本原理和训练方法,并讨论了它们在图像生成、音频合成等领域的应用。同时,还介绍了扩散模型的最新研究动态,如连续时间扩散模型、去噪扩散模型等。

四、结语

何恺明在MIT开设的这两门课程无疑是计算机视觉和生成模型领域的重磅之作。通过这两门课程,学生可以深入了解计算机视觉的基本原理和最新研究动态,以及深度生成模型的概念、原理和应用。如果你对这两个领域感兴趣,不妨关注一下这两门课程,相信你一定会有所收获。

目录
相关文章
|
1月前
|
机器学习/深度学习 人工智能 机器人
何恺明新作出炉!异构预训练Transformer颠覆本体视觉学习范式,AI性能暴涨超20%
【10月更文挑战第29天】在机器人学习领域,训练通用模型面临数据异构性的挑战。近期研究“Scaling Proprioceptive-Visual Learning with Heterogeneous Pre-trained Transformers”提出异构预训练Transformer(HPT),通过大规模预训练学习跨不同本体和任务的共享表示,显著提升了性能。实验结果显示,HPT在未见过的任务上表现优异,性能提升超过20%。
64 6
|
2月前
|
人工智能 算法 前端开发
首个 AI 编程认证课程上线!阿里云 AI Clouder 认证:基于通义灵码实现高效 AI 编码
为了帮助企业和开发者更好使用通义灵码,阿里云上线了“AI Clouder 认证课程--基于通义灵码实现高效 AI 编码”。本课程汇聚了后端、前端、算法领域 5 名实战派专家,带你体验 4 大研发场景实践,上手 3 大实操演练,深度掌握智能编码助手通义灵码,实现全栈 AI 编码技能跃升。
|
2月前
|
机器学习/深度学习 人工智能 安全
AI攻克132年的未解之谜 | AI大咖说
本文探讨了AI在数学证明和自然科学研究中的最新进展,特别是AI成功找到新的李雅普诺夫函数,解决了132年的数学难题。文中介绍了李雅普诺夫函数的重要性,AI如何通过Transformer模型实现高准确率的预测,并讨论了AI在数学和自然科学领域的广泛应用及未来挑战。【10月更文挑战第9天】
103 1
|
2月前
|
人工智能 算法 前端开发
首个 AI 编程认证课程上线!阿里云 AI Clouder 认证:基于通义灵码实现高效 AI 编码
为了帮助企业和开发者更好使用通义灵码,阿里云上线了“AI Clouder 认证课程--基于通义灵码实现高效 AI 编码”。本课程汇聚了后端、前端、算法领域 5 名实战派专家,带你体验 4 大研发场景实践,上手 3 大实操演练,深度掌握智能编码助手通义灵码,实现全栈 AI 编码技能跃升。
|
2月前
|
机器学习/深度学习 人工智能 大数据
看看AI大佬都开了什么公司 | AI大咖说
看看AI大佬都开了什么公司 【10月更文挑战第6天】
129 1
|
3月前
|
机器学习/深度学习 人工智能 自然语言处理
2024外滩大会 AI+ | AI大咖说
2024年外滩大会在上海黄浦世博园区成功举办,主题为“科技·创造可持续未来”。大会汇聚了众多AI领域的专家、学者和企业代表,共同探讨AI技术的最新进展及其应用前景。中国工程院院士王坚和未来学家凯文·凯利的发言尤为引人注目。王坚强调了AI、AI+和AI基础设施的重要性,并指出ChatGPT的成功在于其平台化思维。凯文·凯利则讨论了AI时代下的全球文化和劳动力变化,预测金融和医疗行业将率先受益于AI技术。大会还展示了多项AI成果,包括智能仿生手、AI生活管家等,展现了AI技术的广泛应用和未来潜力。
77 16
|
2月前
|
机器学习/深度学习 存储 人工智能
2024年诺贝尔奖:AI科学家的辉煌时刻 | AI大咖说
在今年的诺贝尔物理学奖和化学奖颁奖典礼上,AI科学家分别摘得了这两项殊荣,这无疑为AI技术的发展和应用注入了新的动力【10月更文挑战第5天】
78 0
|
5月前
|
机器学习/深度学习 存储 人工智能
AI大咖说-李飞飞高徒/特斯拉前AI总监出的最新AI课程
今天要推荐一位AI界的大神Andrej Karpathy的几门大模型的开源项目和课程,希望对你有帮助【7月更文挑战第1天】
145 0
|
7月前
|
机器学习/深度学习 人工智能 算法
AI大咖说-关于深度学习的一点思考
周志华教授探讨深度学习的成效,指出其关键在于大量数据、强大算力和训练技巧。深度学习依赖于函数可导性、梯度下降及反向传播算法,尽管硬件和数据集有显著进步,但核心原理保持不变。深度意味着增加模型复杂度,相较于拓宽,加深网络更能增强泛函表达能力,促进表示学习,通过逐层加工处理和内置特征变换实现抽象语义理解。周志华教授还提到了非神经网络的深度学习方法——深度森林。5月更文挑战第12天
99 5
|
7月前
|
人工智能
AI大咖说-如何评价论文的创新性
《AI大咖说》探讨论文创新性,强调新意、有效性和领域研究问题的重要性。创新点在于用新颖方法有效解决研究问题。评价公式:价值=问题大小*有效性*新意度。该观点源于《跟李沐学AI》视频,提供1-100分评分标准,助力评估论文价值。5月更文挑战第14天
91 3