AI 黑箱难题怎么破?基于神经网络模型的算法使机器学习透明化

简介:

 AI 黑箱难题怎么破?基于神经网络模型的算法使机器学习透明化编者按:人们可以训练人工智能 (AI)和机器人完成任务,但整个过程在黑箱中运作。我们并不知道 AI 和机器人是如何决策的。一家名为 OptimizingMind 的初创公司想要解决这个问题。这篇文章将讲述该公司对建立透明 AI 决策过程的愿景和大胆尝试。本文发表于 TechRepublic,作者 Hope Reese,原标题《 Transparent machine learning: How to create 'clear-box' AI》。由雷锋网(公众号:雷锋网)编译,未经许可,不得转载。

AI 领域的下一个大事件并不是教会 AI 完成某项任务,而是让机器向人们解释为什么它们做出了某项决策。比方说,一个机器人决定走一条特定路线去仓库,又比如,一辆无人驾驶汽车决定向左或向右转。我们怎么知道 AI 为什么做出这些决定?

卡内基梅隆大学计算机科学教授 Manuela Veloso 是研究协作机器人的专家。他表示,能解释自身行为的 AI 对赢得大众对人工智能的信任至关重要。“我们需要质疑为什么算法程序会做出这样那样的决定,如果我们不在 AI 动机解释上花功夫,就无法信任这个智能系统。”

为解决该问题, 创业公司 OptimizingMind 发明了一项能观察智能机器决策过程的技术。

这个算法的目的是创造 “透明访问”系统,以呈现机器学习是如何做出预期(expectations)的。OptimizingMind 的负责人 Tsvi Achler 说:

“该系统以人脑的神经模型为基础,能把任何深度网络 (deep networks)转化为该系统的模式。它的目的是探索 AI 行为的潜在预期 (underlying expectations),并且找出 AI 思维模式的哪个方面对决策影响最大”。

有着神经科学、医药和计算机科学多重学科背景的 Achler 认为,我们能从人脑如何作出和解释决策中学习到很多(应用到 AI 的知识)。

“我感兴趣的是,大脑和计算机的共同点在哪里?为什么人脑可以在学会任何模型之后把它解释出来。如果我说 ‘章鱼’,你是否能告诉我那是什么?如果我问章鱼触手长什么样,你能告诉我吗?”

人能做到,AI 为什么不行?

他说,当人类观察到一个新模式(或规律)的时候,会立刻学会那个模式。这对 AI 暂时还不可能。 AI 的学习方法被称为批量学习。如果你想要对 AI 加入一个新模式或者新注解,你必须从头开始把所有的新旧模式重新教一遍。

Achler 开发的算法呈现出神经科学里的 “爆裂” 现象。当人观察到一个新模式时,多个神经元被同时激发,然后它们沉寂下来。当你向某人展示一个模式的时候,下一瞬间会发生神经兴奋,之后逐渐地平静下来。在这个算法里你会看到同样的事情。

实际上,这种研究方式是对传统机器学习进行了重新思考,Achler 认为该过程就像深度学习、感知器、支持向量机(SVM) 、 卷积神经网络(CNN)、递归神经网络(RNN)、反向传播等研究一样。研究者们并没有打算解决即时学习这一难题。 “这项技术的目的非常明确,那就是尝试解释 AI 是怎样思考的。没有人想过如何让系统变得更灵活或是更具可信度,而它的整体目标是让 AI 决策更容易被访问。”

OptimizingMind 是一种以人脑运行方式为基础的算法,旨在使开发者能“观察到系统内部,理解它们(AI 系统)在干什么,并且很方便地编辑它们,而无需从头开始训练”。这能让机器学习“一步到位”,而神经网络马上就能学会。举例来说,人们能告诉 Siri 某一个词的定义,然后它会被存储起来。今天神经网络还达不到这一点,它们需要用无数案例不断训练学习。

所以 “透明访问”系统是什么意思呢?根据  Achler 的说法, 这个系统提供了一种实时观察 AI 决策的方法。 它可以访问权重、特点和节点,提供能读取这些信息的灵活性,并且能改写它们。最终,这个系统能让我们理解神经网络是怎么做出一个决策的。这个工具能帮助工程师们大幅减少机器开发的时间,帮企业节省资源。

此外 Achler 还表示,在提供透明度之外,这个算法还可以被修改。不但预期(expectations)能被表达出来,每个单独预期还能随着新信息立刻改变。

今天,大多数机器学习的方法使用一个正反馈(feedforward)技术。风险投资公司 Naiss.io 的联合创始人 Ed Fernandez 说,正反馈使用优化过的权重执行任务。在正反馈系统里,独特性信息( uniqueness information)依据训练中出现的频率被录入权重。这意味着整套训练中的权重必须经过优化。这又意味着 OptimizingMind 可以“根据正在被识别的模式执行优化”,这不是为了权重而优化,而是为了模式识别去优化。

当机器学习与商业更紧密结合,并成为无人驾驶和其他极其重要科技的基石,理解机器学习中到底发生了什么就变得至关重要。事实上, DARPA 最近启动了一项对可解释 AI (XAI,explainable artificial intelligence) 的投资。

正如 Veloso 教授说的:“我们不能假定 AI 系统完美无缺。”我们必须从 AI 的错误中学习。Veloso 表示,“如果某天发生了一起 AI 事故,我们必须避免它再次发生。”

via techrepublic

推荐阅读:

神经网络算法Batch Normalization的分析与展望 | 大牛讲堂

人工智能和深度学习的下一个风口在哪里?——余凯丨微软亚洲研究院院友会 (含22页PPT)

机器人也有好奇心,还能自己设定学习目标


本文作者:三川


本文转自雷锋网禁止二次转载,原文链接

相关文章
|
4月前
|
云安全 人工智能 自然语言处理
阿里云x硅基流动:AI安全护栏助力构建可信模型生态
阿里云AI安全护栏:大模型的“智能过滤系统”。
2022 120
|
4月前
|
人工智能 搜索推荐 程序员
当AI学会“跨界思考”:多模态模型如何重塑人工智能
当AI学会“跨界思考”:多模态模型如何重塑人工智能
398 120
|
5月前
|
人工智能 监控 Kubernetes
稳定支撑大规模模型调用,携程旅游的 AI 网关实践
为了进一步提升服务水平和服务质量,携程很早就开始在人工智能大模型领域进行探索。而随着工作的深入,大模型服务的应用领域不断扩大,公司内部需要访问大模型服务的应用也越来越多,不可避免的就遇到了几个问题,我们自然就会想到使用网关来对这些服务接入进行统一管理,并增加各种切面上的流量治理功能。
484 53
|
5月前
|
机器学习/深度学习 人工智能 自然语言处理
AI Compass前沿速览:Qwen3-Max、Mixboard、Qwen3-VL、Audio2Face、Vidu Q2 AI视频生成模型、Qwen3-LiveTranslate-全模态同传大模型
AI Compass前沿速览:Qwen3-Max、Mixboard、Qwen3-VL、Audio2Face、Vidu Q2 AI视频生成模型、Qwen3-LiveTranslate-全模态同传大模型
836 13
AI Compass前沿速览:Qwen3-Max、Mixboard、Qwen3-VL、Audio2Face、Vidu Q2 AI视频生成模型、Qwen3-LiveTranslate-全模态同传大模型
|
5月前
|
人工智能 负载均衡 API
Vercel 发布 AI Gateway 神器!可一键访问数百个模型,助力零门槛开发 AI 应用
大家好,我是Immerse,独立开发者、AGI实践者。分享编程、AI干货、开源项目与个人思考。关注公众号“沉浸式趣谈”,获取独家内容。Vercel新推出的AI Gateway,统一多模型API,支持自动切换、负载均衡与零加价调用,让AI开发更高效稳定。一行代码切换模型,告别接口烦恼!
622 1
Vercel 发布 AI Gateway 神器!可一键访问数百个模型,助力零门槛开发 AI 应用
|
5月前
|
机器学习/深度学习 资源调度 算法框架/工具
AI-ANNE: 将神经网络迁移到微控制器的深度探索——论文阅读
AI-ANNE框架探索将深度学习模型迁移至微控制器的可行路径,基于MicroPython在Raspberry Pi Pico上实现神经网络核心组件,支持本地化推理,推动TinyML在边缘设备中的应用。
311 10
|
5月前
|
机器学习/深度学习 人工智能 自然语言处理
如何让AI更“聪明”?VLM模型的优化策略与测试方法全解析​
本文系统解析视觉语言模型(VLM)的核心机制、推理优化、评测方法与挑战。涵盖多模态对齐、KV Cache优化、性能测试及主流基准,助你全面掌握VLM技术前沿。建议点赞收藏,深入学习。
1382 8
|
5月前
|
人工智能 安全 网络安全
从不确定性到确定性,“动态安全+AI”成网络安全破题密码
2025年国家网络安全宣传周以“网络安全为人民,靠人民”为主题,聚焦AI安全、个人信息保护等热点。随着AI技术滥用加剧,智能化攻击频发,瑞数信息推出“动态安全+AI”防护体系,构建“三层防护+两大闭环”,实现风险前置识别与全链路防控,助力企业应对新型网络威胁,筑牢数字时代安全防线。(238字)
220 1

热门文章

最新文章