AI科学家们,有驯兽师要向你们传授两点必看的人生经验

简介:
本文来自AI新媒体量子位(QbitAI)


训练人工智能系统,和驯兽很像。

用动物做类比能帮普通人理解人工智能中很多复杂的方面,也能帮我们思考怎样让这些系统学新技能最好,最重要的是,还可以引导我们去考虑AI的局限性。

一位名叫Heather Roff的美女姐姐说。

 Heather Roff

Heather是牛津大学政治及国际关系学院高级研究员,曾经做过驯兽师,现在正在研究人类如何运用AI。

她最近写了篇《理解动物能如何帮我们充分利用人工智能》,向AI科学家们传授了两点人生经验:

1. 给吃瓜群众讲AI,要靠和动物类比

普通人想让技术人员解释一下AI是什么,得到的答案多半会是“我们是怎么做AI的”。

讲深度学习,就说这种技术依靠多层神经网络来学习,需要处理海量信息,接下来难免讲到神经网络的算法、神经元之间复杂的连接方式。这时,吃瓜群众极有可能睡着:他只想知道这东西能干什么,怎么学会干这些的。

总把AI讲得像外星人一样,对科普没什么帮助;和我们训练过的小动物做个类比,倒是正合适。

Heather举了个用增强学习方法来训狗的例子。当狗正确地听从命令坐下,就表扬它、给它奖励,长此以往,它就学会了命令-行为-奖励这三者之间的联系。

训练AI系统也是一样,在深度增强学习中,人类设计、设置一个系统,预想一下他们想让系统学什么,给它信息,看它的行为然后给它反馈,比如说看到期望的行为就表扬它一下。

AI和狗,还有更深层次的相似性。

人类在训狗时,不会指望狗理解“爱”、“好”这种复杂的概念,只希望它掌握一种行为方式。同样,我们也可以让AI系统学会在公共道路上移动汽车,但指望它们去“解决”电车难题之类的道德问题,就想太多了。

2. 把AI当成狗,对研究也有帮助

当AI研究者教系统学新技能的时候,把这个过程看作训狗也有助于找到潜在的问题或并发症。

比如说,我想让狗听到“sit”就坐下,但是刚好在训练的时候,我一说sit烤箱的报警器响起来。结果,狗训练好了,听见“sit”会坐下,但是烤箱的报警器一响,它也会坐下。这就叫“意外强化(accidental reinforcement)”。

训练AI的时候也会发生类似的情况,所以,AI的研究人员们不仅要关注他们在训练过程中给AI系统的指令,也要注意AI在周围环境中可能观察到了什么。当然,烤箱报警器只是一个简单的例子,真实世界中的情况会比这复杂得多。

找到了AI系统被“意外强化”的原因,除了能帮我们预见错误,还能告诉我们怎样重新训练最有效。

最后,让我们回味一下《连线》杂志去年某篇封面文章的网络版标题:

Soon We Won’t Program Computers. We’ll Train Them Like Dogs.

本文作者:李林 
原文发布时间:2017-04-03
相关文章
|
机器学习/深度学习 数据采集 人工智能
AI开发硬件基础经验
AI开发硬件基础经验
666 0
AI开发硬件基础经验
|
5月前
|
数据采集 人工智能 自然语言处理
AI邂逅青年科学家,大模型化身科研“搭子”
2025年6月30日,首届魔搭开发者大会在北京举办,涵盖前沿模型、MCP、Agent等七大论坛。科研智能主题论坛汇聚多领域科学家,探讨AI与科研融合的未来方向。会上展示了AI在药物发现、生物计算、气候变化、历史文献处理等多个领域的创新应用,标志着AI for Science从工具辅助向智能体驱动的范式跃迁。阿里云通过“高校用云”计划推动科研智能化,助力全球科研创新。
|
9月前
|
人工智能
MIT 76页深度报告:AI加速创新马太效应,科学家产出分化加剧!缺乏判断力将被淘汰
近日,麻省理工学院(MIT)发布了一份76页的深度研究报告,探讨AI对科学发现和创新的影响。研究对象为1018名美国科学家,结果显示AI使新材料发现增加44%,专利申请增长39%,产品创新提升17%。然而,AI对高能力科学家的产出提升更显著,加剧了科学家间的分化。AI还改变了科学家的工作内容,减少了创意构思时间,增加了评估任务,导致工作满意度下降,但科学家对AI的信心增强。报告全面分析了AI带来的机遇与挑战。论文地址:https://conference.nber.org/conf_papers/f210475.pdf
376 14
|
人工智能
AI科学家太多,谁靠谱一试便知!普林斯顿新基准CORE-Bench:最强模型仅有21%准确率
【10月更文挑战第21天】普林斯顿大学研究人员提出了CORE-Bench,一个基于计算可重复性的AI代理基准,涵盖计算机科学、社会科学和医学领域的270个任务。该基准旨在评估AI代理在科学研究中的准确性,具有多样性、难度级别和现实相关性等特点,有助于推动AI代理的发展并提高计算可重复性。
210 4
|
人工智能 自然语言处理
召唤100多位学者打分,斯坦福新研究:AI科学家创新确实强
【10月更文挑战第6天】斯坦福大学最新研究评估了大型语言模型(LLMs)在生成新颖研究想法方面的能力,通过100多位NLP专家盲评LLMs与人类研究人员提出的想法。结果显示,LLMs在新颖性方面超越人类(p < 0.05),但在可行性上略逊一筹。研究揭示了LLMs作为科研工具的潜力与挑战,并提出了进一步验证其实际效果的设计。论文详见:https://arxiv.org/abs/2409.04109。
166 6
|
人工智能 数据处理
Nature:AI让抄袭问题更加复杂,科学家该如何应对?
【9月更文挑战第16天】《自然》杂志一篇文章指出,AI在科研领域的应用日益增长,带来了加速数据处理、提升计算效率等益处,同时也引发了对科学标准、数据偏见及研究诚信的挑战。一项针对1600多名研究人员的调查显示,超半数认为未来十年AI将成为其研究领域不可或缺的工具。AI能够显著提升科研效率,但也可能增加对模式识别的依赖,加剧数据偏见,并引发研究不可重复性等问题。尤其是大型语言模型如ChatGPT,虽有助于改进论文语法和翻译,但也可能传播错误信息。此外,部分科学家面临计算资源和高质量数据不足等使用障碍。
177 3
|
机器学习/深度学习 存储 人工智能
2024年诺贝尔奖:AI科学家的辉煌时刻 | AI大咖说
在今年的诺贝尔物理学奖和化学奖颁奖典礼上,AI科学家分别摘得了这两项殊荣,这无疑为AI技术的发展和应用注入了新的动力【10月更文挑战第5天】
386 0
|
机器学习/深度学习 人工智能 机器人
Meta首席科学家Yann LeCun:AI毁灭人类的概率为零
【2月更文挑战第22天】Meta首席科学家Yann LeCun:AI毁灭人类的概率为零
263 2
Meta首席科学家Yann LeCun:AI毁灭人类的概率为零
|
机器学习/深度学习 人工智能 算法
|
机器学习/深度学习 存储 人工智能
科学家会梦见“贾维斯”吗?AI和科研如何在云端汇合
在《达摩院2022十大科技趋势》报告中,AI for Science被列为年度十大趋势之一,达摩院认为,“人工智能与科研深度结合,将成为科学家继计算机之后的新生产工具”。这意味着,如果科学家拥有超级智能助手“贾维斯”,人类的科学发展将进入新世代。日前闭幕的2022北京智源大会,阿里云基础设施大计算集群部总监曹政,从云端算力供给、科研开发平台入手,探讨云上的“AI for Science”。科学活动
科学家会梦见“贾维斯”吗?AI和科研如何在云端汇合