你的可视化ML模型可以用显微镜来看了!OpenAI发布Microscope

简介: 一直以来,如何让机器学习算法这个“黑箱”可视化,是ML社区的共同努力方向。日前,OpenAI发布神经网络可视化库Microscope,已经使8个目前流行的神经网络可视化,最大亮点是它可以像实验室中的显微镜一样工作。

微信图片_20220108184722.png


机器学习算法(ML)通常被称为“黑箱”,人类并不知道AI是怎么决策的,算法从输入到输出的过程就像变魔术一样。

 

由于缺乏可解释性,ML可能会导致很多不可控的后果

 

比如, 2016年Facebook推出的聊天机器人,也因为整天接收无聊网友的对喷,吸收了人类的种种丑恶和偏见,变成了满脑子种族歧视的“嘴臭之王”


微信图片_20220108184725.png

 

2019年,包括Yoshua Bengio在内的许多研究人员联合指责Amazon的Rekognition服务表现出种族和性别偏见:它在预测图像中肤色较黑的女性与肤色较浅的男性时的错误率要高得多。

 

微信图片_20220108184727.png

 

如果我们无法解释AI决策的过程和动机,就无法信任这个智能系统。因此,ML社区一直致力于使算法的学习过程透明化。

 

日前,OpenAI让算法可视化又添新丁


OpenAI发布神经网络可视化库Microscope


QQ图片20220108184804.png


神经元可视化


目前的初始版本分析了8个流行的神经网络。该集合一共包含数百万张图像。

Microscope可以像实验室中的显微镜一样工作,帮助AI研究人员更好地理解具有成千上万个神经元的神经网络的结构和行为。


Microscope的初始模型囊括了8种历史留名、经过广泛研究的计算机视觉模型包括:


  • AlexNet——计算机视觉的一个里程碑,2012年ImageNet的获胜者,被引用超过50,000。


  • AlexNet (Places)——和经典AlexNet模型要有相同架构,但在Places365数据集上训练。


  • Inception v1——该网络也被称为GoogLeNet,2014年开创了ImageNet分类的最新水平。


  • Inception v1 (Places)——和经典Inception v1模型要有相同架构,但在Places365数据集上训练。


  • VGG 19——该网络于2014年推出,比Inception变体更简单,仅使用3x3卷积,没有分支。


  • Inception v3——2015年发布的这一版本改进了初始架构的性能和效率。


  • Inception v4——2016年发布,这是Inception架构的第四次迭代,重点是统一性。


  • ResNet v2 50——ResNets使用skip连接在更深层的网络中实现更强的渐变。这个变体有50层。

微信图片_20220108184951.png

微信图片_20220108184810.png微信图片_20220108184812.png


八个视觉神经网络模型集合


每种模型的可视化都带有一些场景,并且图像在OpenAI Lucid库中可用(见文末Github链接),可以在 Creative Commons许可下重复使用。


Microscope的主要价值在于提供持久的共享工件,以长期对这些模型进行比较研究。


Microscope想要实现两个愿景:希望具有相邻专业知识的研究人员(例如神经科学)能够更轻松地处理这些视觉模型的内部工作


希望它能通过了解神经元之间的连接,为电路协作工作做出贡献,从而可以对神经网络进行逆向工程


Microscope已开源,助力可解释性社区发展


在博客中,OpenAI详细介绍了Microscope的初衷。


OpenAI的Microscope是八个视觉神经网络模型的个重要层和神经元可视化的集合,通常在可解释性方面进行研究Microscope使我们更容易分析这些复杂的神经网络内部形成的特征


现代神经网络的能力是成千上万个神经元相互作用的结果。为了了解它们的行为,OpenAI希望能够快速轻松地详细研究这些神经元的相互作用,并分享这些观察结果在协作环境中尤其如此。例如,一位研究人员可能会推测:

InceptionV1 4c:447是一种汽车检测器,由车轮检测器(4b:373)和窗户检测器(4b:237)组成。


微信图片_20220108184814.png


447汽车检测器


微信图片_20220108184816.png


373车轮检测器


微信图片_20220108184818.png


237窗户检测器


Microscope的目标当有人提出某个观点时,其他人能够快速探索这些神经元,评估观点并发现新的东西


image.gifQQ图片20220108185233.png


Microscope可在几种常用的视觉模型中系统地可视化每个神经元,并使所有这些神经元可链接OpenAI希望这将以多种方式支持可解释性社区:


  1. 尽管这些模型和可视化已经开放源代码(我们帮助维护lucid库,该库用于在“Microscope”中生成所有可视化),但对神经元进行可视化却是乏味的。Microscope将探索神经元的反馈回路从几分钟变为几秒钟。这种快速反馈回路对于我们在进行中的回路项目中发现诸如高低频探测器之类的意外特性至关重要。


  1. 使模型和神经元之间可以相互链接,这使得对那些神经元的研究可以立即进行审查和进一步的探索。它还消除了关于正在讨论的模型和神经元的潜在混淆(五个InceptionV1版本我们又在讨论哪一个?)。这对合作非常有帮助,特别是当研究人员在不同的机构工作时。


  1. 作为ML的一个领域,可解释性的一个奇妙之处在于它的可访问性。与许多其他领域相比,它需要相对较少的计算权限。但系统的可视化神经网络仍然需要数百GPU小时。OpenAI希望,通过分享这个的可视化,可以帮助保持可解释性易于访问。


就像生物学家经常专注于研究几种“模式生物”一样,Microscope也专注于详细研究少量模型。OpenAI的初始版本包括八个经常被研究的视觉模型,以及他们发现在研究它们时特别有用的几种可视化技术。OpenAI计划在未来几个月内扩展到其他模型和技术上。


OpenAI表示非常期待看到社区将如何使用Microscope,他们认为它在支持回路协作(一个通过分析单个神经元及其连接或类似工作来逆向工程神经网络的项目)或类似工作上具有很大的潜力。


盘点近期其他神经网络可视化工具


除了Microscope的神经元可视化之外,近年来的一些工作还试图让ML模型的活动可视化。比如,Facebook的Captum于去年秋天推出,使用可视化来解释PyTorch的神经网络在多模式环境中做出的决策。


微信图片_20220108184823.png


2019年3月,OpenAI和Google发布了激活地图集技术,以可视化机器学习算法做出的决策。


微信图片_20220108184825.png


使用OpenAI的Web查看器浏览激活图集

 

微信图片_20220108184846.jpg


激活图集可以放大

 

还有2019年发布的、现已流行的TensorBoard工具用于可视化ML学习内容。


“现在,您可以托管和跟踪您的ML实验,并公开共享它们,而无需进行设置。只需上传您的日志并共享URL,以便其他人可以查看实验以及您使用TensorBoard所做的事情,” Google工程副总裁Megan Kacholia如是说。


微信图片_20220108184850.jpg


Microscope地址:

https://microscope.openai.com/models


开源地址:

https://github.com/tensorflow/lucid


参考链接:

https://openai.com/blog/microscope/

https://venturebeat.com/2020/04/14/openai-launches-microscope-to-visualize-the-neurons-in-popular-machine-learning-models/

https://venturebeat.com/2019/03/06/openai-and-google-detail-activation-atlases-a-technique-for-visualizing-ai-decision-making/

相关文章
|
2月前
|
机器学习/深度学习 人工智能 并行计算
"震撼!CLIP模型:OpenAI的跨模态奇迹,让图像与文字共舞,解锁AI理解新纪元!"
【10月更文挑战第14天】CLIP是由OpenAI在2021年推出的一种图像和文本联合表示学习模型,通过对比学习方法预训练,能有效理解图像与文本的关系。该模型由图像编码器和文本编码器组成,分别处理图像和文本数据,通过共享向量空间实现信息融合。CLIP利用大规模图像-文本对数据集进行训练,能够实现zero-shot图像分类、文本-图像检索等多种任务,展现出强大的跨模态理解能力。
244 2
|
23天前
|
Go 开发工具
百炼-千问模型通过openai接口构建assistant 等 go语言
由于阿里百炼平台通义千问大模型没有完善的go语言兼容openapi示例,并且官方答复assistant是不兼容openapi sdk的。 实际使用中发现是能够支持的,所以自己写了一个demo test示例,给大家做一个参考。
|
2天前
|
人工智能 自然语言处理 机器人
OpenAI推出具有图像上传和分析功能的完整o1模型,并首次推出ChatGPT Pro
OpenAI推出具有图像上传和分析功能的完整o1模型,并首次推出ChatGPT Pro
|
26天前
|
人工智能 自然语言处理 计算机视觉
OpenAI发布sCM提升50倍效率,扩散模型重大技术突破!
OpenAI近期发布了Simplified Consistency Models (sCM) 技术,这是在扩散模型基础上的重大改进,实现了50倍效率提升。sCM通过简化和稳定连续时间一致性模型的训练过程,解决了传统模型中的离散化误差和训练不稳定性问题,显著提升了生成模型的性能和效率。在多个数据集上的测试结果表明,sCM不仅超越了现有模型,还在生成模型的实际应用中展现了巨大潜力。论文地址:https://arxiv.org/abs/2410.11081
45 3
|
1月前
|
人工智能 计算机视觉 网络架构
OpenAI攻克扩散模型短板,清华校友路橙、宋飏合作最新论文
扩散模型在生成AI领域取得显著成果,但其训练不稳定性和采样速度慢限制了发展。OpenAI与清华校友合作,提出连续时间一致性模型(CMs),通过TrigFlow等创新解决了这些问题,大幅提升了训练稳定性和计算效率,实现了与最优模型相当的样本质量,同时减少了计算资源消耗。
45 2
|
1月前
|
SQL 机器学习/深度学习 人工智能
今日 AI 开源|共 4 项|DeepSeek 推出新一代 AI 推理模型,实力比肩 OpenAI o1-preview!
本文介绍了四个最新的 AI 开源项目,涵盖多模态生成式 AI、自然语言到 SQL 转化、多模态数学推理和复杂逻辑推理等多个领域,为 AI 应用开发提供了丰富的资源和工具。
132 0
今日 AI 开源|共 4 项|DeepSeek 推出新一代 AI 推理模型,实力比肩 OpenAI o1-preview!
|
2月前
|
人工智能 自然语言处理 安全
【通义】AI视界|Adobe推出文生视频AI模型,迎战OpenAI和Meta
本文精选了过去24小时内的重要科技新闻,包括微软人工智能副总裁跳槽至OpenAI、Adobe推出文本生成视频的AI模型、Meta取消高端头显转而开发超轻量设备、谷歌与核能公司合作为数据中心供电,以及英伟达股价创下新高,市值接近3.4万亿美元。这些动态展示了科技行业的快速发展和激烈竞争。点击链接或扫描二维码获取更多资讯。
|
3月前
|
搜索推荐 算法
模型小,还高效!港大最新推荐系统EasyRec:零样本文本推荐能力超越OpenAI、Bert
【9月更文挑战第21天】香港大学研究者开发了一种名为EasyRec的新推荐系统,利用语言模型的强大文本理解和生成能力,解决了传统推荐算法在零样本学习场景中的局限。EasyRec通过文本-行为对齐框架,结合对比学习和协同语言模型调优,提升了推荐准确性。实验表明,EasyRec在多个真实世界数据集上的表现优于现有模型,但其性能依赖高质量文本数据且计算复杂度较高。论文详见:http://arxiv.org/abs/2408.08821
96 7
|
2月前
|
API
2024-05-14 最新!OpenAI 新模型 GPT-4 omni 简单测试,4o速度确实非常快!而且很便宜!
2024-05-14 最新!OpenAI 新模型 GPT-4 omni 简单测试,4o速度确实非常快!而且很便宜!
54 0
|
3月前
|
人工智能 测试技术 开发者
微软发布强大的新Phi-3.5模型,击败谷歌、OpenAI等
微软发布强大的新Phi-3.5模型,击败谷歌、OpenAI等