CCAI 讲师专访 | 机器学习奠基人Thomas Dietterich:人类将如何受到AI威胁

简介: 火热之夏,一场人工智能业界领袖齐聚的盛事即将到来! 2017中国人工智能大会(CCAI 2017)即将于7月22-23日在杭州国际会议中心举行,大会会期2天,每天上午邀请本年度有最新研究成果的顶级专家学者发表独立演讲。
火热之夏,一场人工智能业界领袖齐聚的盛事即将到来!

2017中国人工智能大会(CCAI 2017)即将于7月22-23日在杭州国际会议中心举行,大会会期2天,每天上午邀请本年度有最新研究成果的顶级专家学者发表独立演讲。日前最新消息,AAAI前主席Thomas G. Dietterich教授将参加现场向中国数百万开发者介绍如何通过适当的算法确保人工智能系统安全,此外,多位世界级专家也将在Keynote报告中分享人工智能关键领域的学术进展,并带来与企业界应用结合的最新实战案例。
(届时,阿里云云栖社区作为独家直播合作伙伴将全程参与此次大会,呈现现场盛况。)

作为通用机器学习技术奠基人之一,Thomas G. Dietterich的研究贡献主要包括将纠错输出编码应用于多类分类问题,他发明了多示例学习、层次强化学习MAXQ框架及将非参数回归树整合到概率图模型中的方法。此外,Dietterich教授也参与撰写了美国白宫发布的两份重磅AI报告《为人工智能的未来做准备》和《美国国家人工智能研究与发展策略规划》。

Dietterich教授曾说:“我一点也不担心人工智能会超过人类并控制人类。因为智能软件的主要风险不在于‘智能’,而在于‘软件’。像所有的软件一样,它会包含错误。如果将其用于包括自驾车在内的高风险应用,则这些错误有可能危及人的生命和财产。”

会前,记者采访到Dietterich教授,并就人工智能对人类的最大威胁这一话题展开讨论。

以下为采访实录。
 
AI将以何种方式威胁人类
人工智能想要与人类抗衡,需要跨过一个门槛,我目前还没有发现任何证据表明AI系统已经聪明到可以跨过这个门槛。这个门槛即是AI系统能否快速地自我更新,进而演化为超级智能。但请不要天真地认为“人类的智慧”是这种门槛所在。目前,我们大多数的AI系统都能以某种方式超过人类,否则我们也没有必要创建或使用它们。但虽然如此,我们还是没有从中看到任何的阈值效应。因此,由J.J. Good和Nick Bostrom所提出的,一旦人工智能系统达到人类智能,就会出现智力爆炸的看法,是不被证据或理论所支持的。

虽然我不相信会有一个良好/博斯托克风格(Good/Bostrom style)的智能爆炸。但有一件事情需要注意,各种AI技术的能力正在呈指数级增长,我期望这个趋势能这样持续下去。这个指数增长使得未来很难预测。当雷·库兹维尔谈到“奇点”时,他正在引用一种物理奇异性的比喻(比如黑洞或大爆炸)。信息不能通过物理奇点传播,他以类推的方式认为,由于人工智能技术的指数级发展,我们无法预见未来。

我一直认为,在高风险应用中部署人工智能技术将带来危险,因为如果软件出现错误(然而软件总是存在错误),它们可能会威胁人身安全或对经济产生不利影响。例如,如果部署AI软件来管理电网,则软件缺陷可能导致大量停电。我认为这类问题是目前人类受到AI技术威胁的最有可能的方式。

AI将给人类带来哪些问题
我想以AI研究人员和从业者需要解决的三个技术问题切入回答。如果在我们拥有自主的AI系统和人机AI系统之前,这些问题还没有得到解决,那么这些系统将不可靠、不可预测,这很危险。
a. 检验和确认(Verification and validation)。 第一个技术问题是,对于大多数AI系统,特别是基于机器学习的AI系统,我们无法验证其正确性。对于监督学习,只有在测试数据与训练数据来自相同的分布的假设下,我们才能验证其正确与否。最近的一些工作表明,深层神经网络容易受到对抗数据的影响。因此,在真实条件下,我们需要一个可测试的方法来保证系统的准确性。
b. 对已知和未知的未知问题的鲁棒性(Robustness to known and unknown unknowns)。 传统意义而言,AI系统关注性能,其中包括相较于预期的准确性、成本以及回报。 除此之外,在与安全密切相关的应用中,我们需要准备一些方法以便处理下行风险和一些罕见但有灾难性后果的问题。大多数现有的下行风险方法只考虑“已知的未知”,即我们所知道的风险。但我们也需要开始寻找方法,以便从模型故障层面也能够提供鲁棒性(即未知的未知层面)。这是接下来的研究中一个非常重要的话题。
c. 人机协作系统的平衡(Resilience of combined human-machine systems)。在绝大多数应用程序的设置中,AI系统不能完全自动运行。 相反,在循环中需要有人类的“参与”,这在高风险环境中尤其重要。我认为,下一步研究的挑战是寻找设计人机协作的方法,使人类与机器系统能够结合得更好。

您为什么提倡限制模型的复杂度
如果对世界上的一切建模的话,那么模型的大小基本上与宇宙的大小相同。用这样的模型进行计算是不切实际的,从数据中学习到这样的模型也是不可能的。 在机器学习中,我们知道模型的准确性与数据量成正比,与模型复杂度成反比。所以要获得准确的模型,我们必须要有大量的数据;若我们没有大量的数据,那么我们必须限制模型的复杂度。

在具体施行层面,上述问题能够实例化为AI研究人员所面对的资格问题(the Qualification Problem)以及分支问题(the Ramification Problem)。资格问题表明,我们无法枚举一件事情成功的所有前提条件。分支问题表明,我们不可能列举一个行动所有的直接和间接的影响。

中美人工智能发展有何差异
我对中国和美国AI行业的了解不是特别多。但我的印象是,中国、美国或者说世界其他国家之间,正在解决的人工智能问题以及应用的技术种类没有什么显着的差异。中国在将深度学习应用于自然语言理解以及机器翻译等领域较为领先,并在其他领域(例如计算机视觉)方面也有所贡献。特别有趣的是,中国的无人机产业正主宰市场,并能够将例如手势控制等有趣的AI形式融入无人机。

所以总体而言,我对中国或者非中国的AI行业的看法是一致的:AI技术需要通过关注测试、检验、确认、鲁棒性和强大的人机界面而变得更加成熟。在与安全相关的应用程序中部署AI的时候,我们应该非常小心。

您对AI最直观的三个看法
a. AI说到底是一种智能软件。它不是要复制人类,而是一种能够为社会所用的人造智能。
b. 当AI系统下围棋时,它是真的在下围棋。 但是,当AI系统模拟人的情感时,它并没有体验到人类的情感,因为它不是由生成人类感觉和情绪的生物材料所组成的。所以当一台电脑对你说,“我知道你的感觉”,它在说谎。
c. 智能软件的主要风险不在于“智能”,而在于“软件”。像所有的软件一样,它会包含错误。如果将其用于包括自驾车在内的高风险应用,则这些错误有可能危及人的生命和财产。

您所参与的有趣研究与最自豪的科研成果
我一直将机器学习的基础研究与新颖的应用相结合。在应用层面的实战工作是发现新的有趣的研究问题的一种方式。例如,我的一篇关于多实例问题的论文是出于我将机器学习应用于药物活性预测方面的工作。我所任教的俄勒冈州立大学是生态科学领域世界顶尖的大学之一。通过之前的一位学生,我结识了一些生态学家,我对他们的研究问题非常感兴趣。此外,我也渴望解决一些能够在全球范围内产生积极影响的问题。

从中我得到了一些启示,其中最大的一个启示是,生态系统很少处于平衡状态,也就是说,我们普遍认为的“自然平衡”其实是不存在的。相反,生态系统需要不断应对干扰(洪水,火灾,疾病),正是这些扰动推动了新物种的进化和创造(以及现有物种的灭绝)。我们对自然的模拟不能通过定义并优化目标函数来实现。因为它需要应对干扰,需要反弹。

我最为自豪的研究是我在分层强化学习中的工作。我开发的MAXQ理论为深入理解是什么造就了一个性能良好的子程序提供了崭新的视角。它证明了在抽象层面,仅仅时间抽象是不够的,我们需要的时间抽象与状态抽象的结合。机器能够成功且快速学习的关键在于这两种抽象形式的协同工作。

遇到的挑战与如何克服
在研究中,最大的挑战是摆脱对相同的技术和相同的想法的依赖。重要的是不断问自己,你是否以最有创意的方式解决真正的问题。重要的是要走出流行的范例,找到解决问题的根本性的、新的、更好的方法。

处理应用层面的问题最大的挑战是,如果问题太简单,可能不会带来任何有趣的机器学习研究问题。相反,如果这个问题太难了,可能需要多年的工作才能取得进展。对于每一位个体研究者而言,大多数其在研究的机器学习问题在其博士生活期间可能难以解决。

您将在CCAI分享什么话题
我会讲“Robust Artificial Intelligence:Why and How”(为什么AI需要鲁棒性?怎样做到?)这个话题。我将首先讨论在高风险任务中部署人工智能系统时可能出现的工程和研究问题。然后,我将回顾近期关于创建可靠的AI系统的方法和研究,我相信这是目前爆发的应用人工智能市场所面临的最重要的课题。如果我们要拉新及留存用户,取得客户以及更广泛的社会的信任,我们需要确保我们的AI系统能够准确、安全、健壮地执行。我希望观众从我的演讲中受到启发,努力地解决这些问题,我的演讲将为他们自己的研究和工程努力提供一些起点。

7月22-23日由中国人工智能学会、阿里巴巴集团 & 蚂蚁金服主办,CSDN承办,阿里云云栖社区独家直播的2017中国人工智能大会(CCAI 2017)将于中国杭州举办,预计将有2000多位技术精英和专业人士参加此次盛会。本届CCAI由中国科学院院士谭铁牛、阿里巴巴技术委员会主席王坚、香港科技大学计算机系主任杨强、蚂蚁金服首席数据科学家漆远、南京大学教授周志华共同甄选本年度海内外最值得关注的学术进展。

报名通道:http://ccai.caai.cn/

c56884b23d605a2d3ae92086fad4500304738632

目录
相关文章
|
15天前
|
机器学习/深度学习 人工智能 安全
探索AI的未来:从机器学习到深度学习
【10月更文挑战第28天】本文将带你走进AI的世界,从机器学习的基本概念到深度学习的复杂应用,我们将一起探索AI的未来。你将了解到AI如何改变我们的生活,以及它在未来可能带来的影响。无论你是AI专家还是初学者,这篇文章都将为你提供新的视角和思考。让我们一起探索AI的奥秘,看看它将如何塑造我们的未来。
52 3
|
11天前
|
机器学习/深度学习 人工智能 自然语言处理
机器学习之解释性AI与可解释性机器学习
随着人工智能技术的广泛应用,机器学习模型越来越多地被用于决策过程。然而,这些模型,尤其是深度学习模型,通常被视为“黑箱”,难以理解其背后的决策逻辑。解释性AI(Explainable AI, XAI)和可解释性机器学习(Interpretable Machine Learning, IML)旨在解决这个问题,使模型的决策过程透明、可信。
25 2
|
11天前
|
机器学习/深度学习 数据采集 人工智能
揭秘AI:机器学习的魔法与代码
【10月更文挑战第33天】本文将带你走进AI的世界,了解机器学习的原理和应用。我们将通过Python代码示例,展示如何实现一个简单的线性回归模型。无论你是AI新手还是有经验的开发者,这篇文章都会给你带来新的启示。让我们一起探索AI的奥秘吧!
|
14天前
|
机器学习/深度学习 人工智能 自然语言处理
探索AI的奥秘:机器学习入门指南
【10月更文挑战第30天】本篇文章是一份初学者友好的机器学习入门指南,旨在帮助读者理解并开始实践机器学习。我们将介绍机器学习的基本概念,包括监督学习、无监督学习和强化学习等。我们还将提供一些实用的代码示例,以帮助读者更好地理解和应用这些概念。无论你是编程新手,还是有一定经验的开发者,这篇文章都将为你提供一个清晰的机器学习入门路径。
32 2
|
22天前
|
机器学习/深度学习 数据采集 人工智能
揭秘AI的魔法:机器学习如何改变我们的世界
【10月更文挑战第22天】在这篇文章中,我们将深入探讨机器学习的奥秘,揭示它是如何在我们的日常生活中扮演着越来越重要的角色。从简单的数据分类到复杂的预测模型,机器学习的应用已经渗透到各个领域。我们将通过实例和代码示例,展示机器学习的基本概念、工作原理以及它如何改变我们的生活。无论你是科技爱好者还是对AI充满好奇的初学者,这篇文章都将为你打开一扇通往未来的大门。
|
5天前
|
机器学习/深度学习 人工智能 自然语言处理
当前AI大模型在软件开发中的创新应用与挑战
2024年,AI大模型在软件开发领域的应用正重塑传统流程,从自动化编码、智能协作到代码审查和测试,显著提升了开发效率和代码质量。然而,技术挑战、伦理安全及模型可解释性等问题仍需解决。未来,AI将继续推动软件开发向更高效、智能化方向发展。
|
10天前
|
机器学习/深度学习 人工智能 自然语言处理
AI在医疗领域的应用及其挑战
【10月更文挑战第34天】本文将探讨人工智能(AI)在医疗领域的应用及其面临的挑战。我们将从AI技术的基本概念入手,然后详细介绍其在医疗领域的各种应用,如疾病诊断、药物研发、患者护理等。最后,我们将讨论AI在医疗领域面临的主要挑战,包括数据隐私、算法偏见、法规合规等问题。
29 1
|
7天前
|
机器学习/深度学习 人工智能 算法
AI在医疗领域的应用与挑战
本文探讨了人工智能(AI)在医疗领域的应用,包括其在疾病诊断、治疗方案制定、患者管理等方面的优势和潜力。同时,也分析了AI在医疗领域面临的挑战,如数据隐私、伦理问题以及技术局限性等。通过对这些内容的深入分析,旨在为读者提供一个全面了解AI在医疗领域现状和未来发展的视角。
37 10
|
8天前
|
机器学习/深度学习 人工智能 监控
探索AI在医疗领域的应用与挑战
本文深入探讨了人工智能(AI)在医疗领域中的应用现状和面临的挑战。通过分析AI技术如何助力疾病诊断、治疗方案优化、患者管理等方面的创新实践,揭示了AI技术为医疗行业带来的变革潜力。同时,文章也指出了数据隐私、算法透明度、跨学科合作等关键问题,并对未来的发展趋势进行了展望。

热门文章

最新文章