AI大咖说-关于深度学习的一点思考

简介: 周志华教授探讨深度学习的成效,指出其关键在于大量数据、强大算力和训练技巧。深度学习依赖于函数可导性、梯度下降及反向传播算法,尽管硬件和数据集有显著进步,但核心原理保持不变。深度意味着增加模型复杂度,相较于拓宽,加深网络更能增强泛函表达能力,促进表示学习,通过逐层加工处理和内置特征变换实现抽象语义理解。周志华教授还提到了非神经网络的深度学习方法——深度森林。5月更文挑战第12天

AI大咖说-关于深度学习的一点思考

1. 周志华教授

周志华教授是人工智能研究专家,南京大学教授、校学术委员会委员,南京大学计算机系主任兼人工智能学院院长。南京大学人工智能学院是国内最早开设人工智能本科专业的学院。

前段时间,有看到周志华教授写的《关于深度学习的一点思考》,这里借【AI大咖说】做下简要的阅读笔记和自己的理解,供大家参考。

阅读原始文章的参见:全文网上的链接或公众号可自行搜索

2. 关于深度学习的一点思考

周志华教授在这篇思考中讲了深度神经网络今天为什么能起作用和深度神经网络中深的含义,最后引出非神经网络的其他深度学习方法(深度森林)。本文主要集中在前面2点。

2.1 深度神经网络今天为什么能起作用

周志华教授的观点:

  • 有大量的数据
  • 有很好的算力支持(GPU)
  • 模型训练的技巧(主要是减缓梯度消失的策略)

深度神经网络发展至今,其依赖基础本质并没有发生很大的变化:

  • 函数的可导性
  • 梯度下降(Gradient Descent)
  • BP反向传播算法

另外,最近特斯拉AI主管Karpathy在Deep Neural Nets: 33 years ago and 33 years from now复现LeNet手写字符识别网络,网络的基本构建和当前的神经网络基本无二。除了工业技术的发展产生了大量的可训练数据(ImageNet)和计算设备GPU,这30多年,研究者都在解决深度学习训练难的问题(梯度消失和爆炸),RELU的出现可以说是一个起点。(图片来自Deep Neural Nets: 33 years ago and 33 years from now, 侵权即删)

md-2022-03-30-17-03-40.png

这些外在和内在的技术发展,是的可以训练很深很复杂的网络。从LeNet的5层到现在几千层,GPT3的参数量有1750亿,训练数据足够大,模型足够复杂,算法的表示和鲁棒性会越好。

2.2 深度神经网络中深的含义

增加模型的复杂度,可把模型加「深」,或把模型加「宽」。
从提升模型复杂度的角度看,「加深」会更有效,因为简单来说,「加宽」仅是增加了计算单元,从而增加了基函数的数目;而在「加深」时不仅增加了基函数的数目,还增加了函数嵌套的层数,于是泛函表达能力会更强。所以,为提升复杂度,应该把网络「加深」。

加深之后的深度神经网络有更好的表示学习的能力。(图片来自周志华教授《关于深度学习的一点思考》侵权即删)

md-2022-03-30-17-12-59.png

对于深度神经网络表示学习的关键,周志华教授的观点:

  • 逐层加工处理
  • 内置特征变换
  • 模型复杂度够

(图片来自周志华教授《关于深度学习的一点思考》 侵权即删)
md-2022-03-30-17-13-34.png

可以看出深度神经网络先从浅层的特征开始,逐层过渡到深层的抽象语义特征,这似乎和人的逐步分析,层层剥离的思维相似。类似的观点在李宏毅的机器学习讲义中也有提到。而逐层加工处理同时增加内置的特征的变换。

逐层加工处理和内置特征变换的思维,可以迁移到传统表单机器学习的特征加工上面,即深度嵌套特征加工。

周志华教授认为,满足了上面观点中的三个要求的表示学习都有好的学习能力,不一定拘泥于当前的深度神经网络如周志华教授团队deep forest。

目录
相关文章
|
1月前
|
机器学习/深度学习 人工智能 安全
探索AI的未来:从机器学习到深度学习
【10月更文挑战第28天】本文将带你走进AI的世界,从机器学习的基本概念到深度学习的复杂应用,我们将一起探索AI的未来。你将了解到AI如何改变我们的生活,以及它在未来可能带来的影响。无论你是AI专家还是初学者,这篇文章都将为你提供新的视角和思考。让我们一起探索AI的奥秘,看看它将如何塑造我们的未来。
74 3
|
1月前
|
机器学习/深度学习 数据采集 人工智能
AI赋能教育:深度学习在个性化学习系统中的应用
【10月更文挑战第26天】随着人工智能的发展,深度学习技术正逐步应用于教育领域,特别是个性化学习系统中。通过分析学生的学习数据,深度学习模型能够精准预测学生的学习表现,并为其推荐合适的学习资源和规划学习路径,从而提供更加高效、有趣和个性化的学习体验。
134 9
|
7天前
|
人工智能 自然语言处理 前端开发
OpenAI 12天发布会全解析 | AI大咖说
OpenAI近日宣布将在12个工作日内每天进行一场直播,展示一系列新产品和样品。首日推出GPT-o1正式版,性能大幅提升;次日展示Reinforcement Fine-Tuning技术,提高模型决策质量;第三天推出Sora,实现高质量视频生成;第四天加强Canvas,提升多模态创作效率;第五天发布ChatGPT扩展功能,增强灵活性;第六天推出ChatGPT Vision,实现多模态互动;第七天推出ChatGPT Projects,优化项目管理。这些新技术正改变我们的生活和工作方式。
612 8
|
20天前
|
机器学习/深度学习 人工智能 自然语言处理
揭秘AI:深度学习的奥秘与实践
本文将深入浅出地探讨人工智能中的一个重要分支——深度学习。我们将从基础概念出发,逐步揭示深度学习的原理和工作机制。通过生动的比喻和实际代码示例,本文旨在帮助初学者理解并应用深度学习技术,开启AI之旅。
|
1月前
|
机器学习/深度学习 人工智能 数据可视化
何恺明CV课程 | AI大咖说
麻省理工学院(MIT)电气工程与计算机科学系(EECS)副教授何恺明开设了两门精彩课程:“Advance in Computer Vision”和“Deep Generative Models”。何恺明是计算机视觉和深度学习领域的杰出科学家,曾提出深度残差网络(ResNet)等重要成果。这两门课程不仅涵盖了最新的研究前沿,还由何恺明亲自授课,内容涉及卷积神经网络、生成对抗网络、变分自编码器等,是学习计算机视觉和生成模型的宝贵资源。
71 8
|
1月前
|
机器学习/深度学习 人工智能 算法
AI在医疗:深度学习在医学影像诊断中的最新进展
【10月更文挑战第27天】本文探讨了深度学习技术在医学影像诊断中的最新进展,特别是在卷积神经网络(CNN)的应用。文章介绍了深度学习在识别肿瘤、病变等方面的优势,并提供了一个简单的Python代码示例,展示如何准备医学影像数据集。同时强调了数据隐私和伦理的重要性,展望了AI在医疗领域的未来前景。
79 2
|
25天前
|
机器学习/深度学习 人工智能 自然语言处理
揭秘深度学习中的自注意力机制及其在现代AI应用中的革新
揭秘深度学习中的自注意力机制及其在现代AI应用中的革新
|
2月前
|
机器学习/深度学习 人工智能 安全
AI攻克132年的未解之谜 | AI大咖说
本文探讨了AI在数学证明和自然科学研究中的最新进展,特别是AI成功找到新的李雅普诺夫函数,解决了132年的数学难题。文中介绍了李雅普诺夫函数的重要性,AI如何通过Transformer模型实现高准确率的预测,并讨论了AI在数学和自然科学领域的广泛应用及未来挑战。【10月更文挑战第9天】
112 1
|
2月前
|
机器学习/深度学习 人工智能 大数据
看看AI大佬都开了什么公司 | AI大咖说
看看AI大佬都开了什么公司 【10月更文挑战第6天】
142 1
|
1月前
|
安全 搜索推荐 机器学习/深度学习
AI赋能教育:深度学习在个性化学习系统中的应用
【10月更文挑战第26天】在人工智能的推动下,个性化学习系统逐渐成为教育领域的重要趋势。深度学习作为AI的核心技术,在构建个性化学习系统中发挥关键作用。本文探讨了深度学习在个性化推荐系统、智能辅导系统和学习行为分析中的应用,并提供了代码示例,展示了如何使用Keras构建模型预测学生对课程的兴趣。尽管面临数据隐私和模型可解释性等挑战,深度学习仍有望为教育带来更个性化和高效的学习体验。
143 0
下一篇
DataWorks