深度学习与人工智能革命:part I

简介: 人工智能始于思想实验,深入了解AI和深度学习的历史,并了解它们为什么现在取得快速的发展。

深度学习(DL)和人工智能(AI)已经不再是科幻小说中遥不可及的目标,目前成为了互联网和大数据等领域的前沿研究内容。

由于云计算提供强的计算能力、提出的先进算法以及充裕的资金,这创造了五年前难以想象的新技术此外,层出不穷的丰富数据也使得深度学习成为了现实。

相关内容分成四个部分,主要深入探索深度学习、数据库的选择以及相关实际商业应用问题等。

在今天的第I部分内容中,主要是讲解人工智能的历史以及它现在高速发展的原因;

II部分内容中,将讨论一下人工智能、机器学习和深度学习之间的区别;

第III部分内容中,将深入研究深度学习以及在为新项目选择数据库时需要评估的关键事项;

IV部分内容中,将讨论深度学习为何使用MongoDB,并提供相关使用实例;

由于本文内容是第I部分内容,主要介绍人工智能的历史。如果读者想快速将四部分内容全部看完,可以下载本文附件。


人工智能的历史

我们目前生活在人工智能开始崭露头角的时代,人工智能不仅创造了扰乱工业和变革工作场所的可能性,而且还可以解决一些社会上的挑战。比如自动驾驶可以挽救数万人的生命、增加老年人和残疾人的流动性,精准医学可以开展个体化治疗以延长生命,智能建筑有助于减少碳排放并节约能源等,这些只是人工智能承诺的一些潜在的好处,并且大多已经取得相关突破性的进展。

到2018年,Gartner公司估计机器将占全球所有业务内容的20%,并预计60亿个联网设备将产生大量的数据。人工智能对理解这一切显得至关重要,AI不再局限于科幻电影中,人工智能和机器学习正在被现实世界中的相关业务采用。

自从艾伦·图灵(Alan Turing)于1950年写了篇论文《计算机器与智能》以来,人工智能一直是人们的一个梦想。在这篇论文中,图灵提出了一个根本性的问题——“机器能思考吗?”,并考虑计算机是否能像人类那样进行思考。人工智能领域的研究真正诞生于1956年的夏天,一组聚集在达特茅斯学院(Dartmouth College)的研究人员发起了一系列的研究项目,他们的目标是让计算机做出像人类一样行为。“人工智能”这一词也是第一次在这所学院被创造出来,该会议的概念形成了一个合法的跨学科交流的研究领域。

在接下来的十年中,随着新技术的发展受到当代技术的限制,人工智能的发展经历了繁荣和萧条周期。在1968年,科幻电影《2001:太空漫游》中的智能电脑——HAL9000说了一句著名的话,“对不起,戴夫,恐怕我不能那么做”,这帮助AI在主流意识中留下了不可磨灭的印象。在20世纪70年代末,电影《星球大战》中智能机器人帮助拯救银河的场景进一步巩固了AI在主流文化中地位。

但直到20世纪90年代末,人工智能才开始从科幻传说转变为现实世界的实际应用。1997年初,由IBM的深蓝国际象棋程序击败了当时的世界冠军Garry Kasparov,人工智能在上世界90年代迎来了一个新的时代,AI的研究进展开始加速。研究人员变得开始关注人工智能的相关子问题,并利用它来解决现实世界中的应用任务,比如图像和语音识别等。研究人员没有试图构造由专家知识决定的逻辑规则,而是开始研究如何通过算法学习逻辑规则本身,这一趋势有助于将研究重点转移到人工神经网络(ANNs)中。在20世纪40年代,人工神经网络被发明成“松散地”模仿人脑的学习方式。当反向传播梯度下降算法得到改进时,人工神经网络的研究于1986年开始变得流行起来,反向传播算法减少了人工神经网络训练时需要大量手工调参问题,因此反向传播算法(BP)也是一种有效的减少人工智能训练时间的方法。

即使在算法方面取得新的进展,但神经网络仍然受到技术上的限制,这些限制也影响了ANNs在过去几十年的应用情况。直到2000年中期,人工智能才重新掀起一次科技浪潮。2006年,多伦多大学的Geoffrey Hinton提出对人工神经网络进行修改,并将其研究成果称为“深度学习(Deep Neural Network)”。Hinton对人工神经网络添加多个隐藏并对每层进行数学优化,逐层学习使得模型训练变得更快。在2012年,斯坦福大学的Andrew Ng进一步推动了深度学习的发展,他建造了一个简陋的利用图形处理单元(GPU)实现深度神经网络的模型,Andrew Ng发现集群GPU仿真训练深度学习模型比通用的CPU训练快得多,对于同样的任务而言,GPU可能只需要一天的时间,而CPU需要几周的时间才能产生相同的结果,这是由于GPU是大规模并行架构,而且能同时处理多个任务。

从本质上讲,将软件算法与高性能的硬件相结合已经酝酿了几十年,这也将迎来AI正在经历的快速发展。

人工智能现在为什么高速发展?

目前有四个主要因素推动了人工智能的发展:

1.更丰富的数据。人工智能需要大量的数据来学习,社交的数字化为其进步提供了可利用的原材料。诸如物联网(传感器等)、社交和移动计算、科学和学术界、医疗保健以及许多新的应用程序等来源的大数据可以用来训练人工智能模型。不出意料,目前在人工智能领域投资较多的公司,比如亚马逊、苹果、百度、谷歌、微软等,同时也是数据较多的公司。

2.更便宜的计算成本。在过去,即使人工智能相关算法得到改进,硬件仍然是一个制约因素。由于硬件和新的计算模型取得新的突破,尤其是GPU,加速了人工智能的发展过程。GPU由于其自身的并行处理能力及高效的执行矩阵乘法的方式使得其在人工智能社区得到普及,这也缔造了英伟达这一优秀公司的行业地位。 最近,英特尔Xeon和Xeon Phi处理器中增加了新的深度学习指令,这允许其能更好进行并行和高效的矩阵运算。随着人工智能技术的应用,硬件厂商现在需要专门针对人工智能进行开发、设计和制造相关产品,这些进步将导致更好的硬件设计、性能、功耗以及配置文件。

3.更复杂的算法。更高效的性能和更便宜的计算花费使得科研人员能够开发和训练更高级的算法,这是因为他们不再受限于过去硬件约束的限制。因此,深度学习现在正以惊人的精确度解决特定的问题(例如,语音识别、图像分类、手写识别、欺诈检测等),更先进的算法继续推动人工智能技术的发展。

4.更广泛的投资。在过去的几十年中,人工智能的研究和发展主要局限于大学和研究院等机构。资金缺乏以及人工智能问题的困难性导致其发展甚微。如今,人工智能投资不再局限于大学实验室,而是在许多领域都在进行发展——政府、风险资本支持的初创公司、互联网巨头和各行业的大型企业等。

作者信息

Mat Keep产品营销总监,目前就职于MongoDB团队

个人主页:https://www.linkedin.com/in/matkeep/

本文由北邮@爱可可-爱生活老师推荐,阿里云云栖社区组织翻译。

文章原标题《Deep Learning and the Artificial Intelligence Revolution: Part 1》,作者:Mat Keep,译者:海棠,审阅:袁虎。

文章为简译,更为详细的内容,请查看原文

 

相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
相关文章
|
7天前
|
机器学习/深度学习 人工智能 自然语言处理
探索人工智能的未来:机器学习与深度学习的融合之旅
【9月更文挑战第35天】在这篇文章中,我们将深入探讨人工智能的两大支柱——机器学习和深度学习。我们将通过代码示例和实际应用案例,揭示它们如何相互补充,共同推动AI技术的发展。无论你是初学者还是有经验的开发者,这篇文章都将为你提供宝贵的见解和启示。
26 0
|
3天前
|
机器学习/深度学习 人工智能 监控
人工智能与未来医疗:革命性的技术融合
本文将探讨人工智能在医疗领域中的应用及其对未来医疗模式的深刻影响。通过分析AI在疾病诊断、个性化治疗、医疗影像分析等方面的表现,我们将揭示这一技术如何提升医疗服务的效率和精准度,进而推动整个医疗行业的变革。
|
1天前
|
机器学习/深度学习 存储 人工智能
人工智能与未来医疗:革命性技术的潜力与挑战
【10月更文挑战第2天】 本文探讨了人工智能在医疗领域的应用及其潜在影响。通过分析当前AI技术的发展现状以及在医学诊断、治疗和患者管理中的具体应用,揭示了这一技术如何提升医疗服务质量和效率。同时,讨论了AI在医疗领域所面临的伦理、隐私和安全等挑战,呼吁建立相应的监管和标准以确保其安全有效地发展。
|
1天前
|
机器学习/深度学习 人工智能 自然语言处理
软件测试中的人工智能革命:现状与未来展望
【10月更文挑战第2天】 本文深入探讨了人工智能在软件测试领域的应用现状、面临的挑战以及未来的发展方向。通过分析AI技术如何提高测试效率、准确性和自动化水平,文章揭示了AI在改变传统软件测试模式中的关键作用。同时,指出了当前AI测试工具的局限性,并对未来AI与软件测试深度融合的前景进行了展望,强调了技术创新对于提升软件质量的重要性。
14 4
|
19天前
|
机器学习/深度学习 人工智能 算法
【新闻文本分类识别系统】Python+卷积神经网络算法+人工智能+深度学习+计算机毕设项目+Django网页界面平台
文本分类识别系统。本系统使用Python作为主要开发语言,首先收集了10种中文文本数据集("体育类", "财经类", "房产类", "家居类", "教育类", "科技类", "时尚类", "时政类", "游戏类", "娱乐类"),然后基于TensorFlow搭建CNN卷积神经网络算法模型。通过对数据集进行多轮迭代训练,最后得到一个识别精度较高的模型,并保存为本地的h5格式。然后使用Django开发Web网页端操作界面,实现用户上传一段文本识别其所属的类别。
43 1
【新闻文本分类识别系统】Python+卷积神经网络算法+人工智能+深度学习+计算机毕设项目+Django网页界面平台
|
5天前
|
机器学习/深度学习 人工智能 自然语言处理
软件测试中的人工智能革命:效率与准确性的双重提升
随着人工智能技术的不断进步,软件测试领域正经历着前所未有的变革。本文将探讨人工智能在软件测试中的应用及其对效率和准确性的提升。我们将分析传统软件测试的局限性,展示AI如何通过自动化测试、智能缺陷识别和预测性维护来克服这些挑战。此外,我们还将讨论AI在测试过程中面临的伦理和安全挑战,以及如何应对这些挑战。通过综合分析,本文旨在为读者提供一个关于软件测试中人工智能应用的全面视角,强调其在提高效率和准确性方面的巨大潜力。
|
3天前
|
机器学习/深度学习 人工智能 自然语言处理
探索人工智能:深度学习在自然语言处理中的应用
探索人工智能:深度学习在自然语言处理中的应用
|
3天前
|
机器学习/深度学习 人工智能 自然语言处理
探索人工智能:深度学习与自然语言处理
探索人工智能:深度学习与自然语言处理
14 1
|
4天前
|
机器学习/深度学习 人工智能 自然语言处理
软件测试中的人工智能革命:挑战与机遇
在本文中,我们将深入探讨人工智能(AI)如何改变软件测试领域的基本面貌。从自动化测试的崭新可能性到提高测试效率和准确性的先进方法,我们将全面分析AI带来的各种挑战和机遇。通过具体案例和实践指南,希望为读者提供清晰的理解和应用方向。
|
9天前
|
机器学习/深度学习 人工智能 自然语言处理
软件测试中的人工智能革命:提升测试效率与质量的新篇章
随着人工智能技术的不断成熟,其在软件测试领域的应用正逐渐改变传统测试方式。本文将探讨AI在软件测试中的应用现状、优势以及面临的挑战,并通过具体案例分析展示AI如何提高测试效率和质量。最后,我们将讨论未来AI在软件测试中的发展趋势及其对人类测试工程师角色的影响。

热门文章

最新文章