大模型如何可靠?IBM等学者最新《基础模型的基础鲁棒性》教程|NeurIPS 2022

本文涉及的产品
交互式建模 PAI-DSW,每月250计算时 3个月
模型训练 PAI-DLC,5000CU*H 3个月
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
简介: 大模型如何可靠?IBM等学者最新《基础模型的基础鲁棒性》教程|NeurIPS 2022



 新智元报道  

作者:专知编辑:Aeneas

【新智元导读】在第36届NeurIPS上,来自IBM研究中心等学者讲述关于大模型的鲁棒性,非常值得关注!

作为当前全球最负盛名的 AI 学术会议之一,NeurIPS 是每年学界的重要事件,全称是 Neural Information Processing Systems,神经信息处理系统大会,通常在每年 12 月由 NeurIPS 基金会主办。

大会讨论的内容包含深度学习、计算机视觉、大规模机器学习、学习理论、优化、稀疏理论等众多细分领域。

今年 NeurIPS 已是第 36 届,于 11 月 28 日至 12 月 9 日举行,为期两周。

第一周将在美国新奥尔良 Ernest N. Morial 会议中心举行现场会议,第二周改为线上会议。

来自IBM研究中心等学者讲述关于大模型的鲁棒性,非常值得关注!

基础模型采用深度学习的方法,在大规模无标签数据上进行预训练,并通过特定任务的监督进行微调,正成为机器学习的主流技术。

虽然基础模型在学习一般表示和跨领域和数据模式的少次/零次泛化方面有很多希望,但同时由于使用了过多的数据量和复杂的神经网络架构,它们在鲁棒性和隐私性方面提出了前所未有的挑战和相当大的风险。

本教程旨在提供一个类似coursera的在线教程,包含全面的讲座,一个实践和交互式的Jupyter/Colab实时编码演示,以及一个关于基础模型中可信性的不同方面的小组讨论。

https://sites.google.com/view/neurips2022-frfm-turotial

目录内容:

  1. Basics in foundation models and robustness
  2. Deep dive on foundation models for computer vision
  3. Deep dive on foundation models for code
  4. Hands-on code walkthrough
  5. Concluding Remarks
  6. Q&A
  7. Panel discussion

讲者:现实世界的机器学习系统需要对分布变化鲁棒——它们应当在与训练分布不同的测试分布上工作良好。诸如资源不足国家的贫困地图 [Xie et al. 2016; Jean et al. 2016]、自动驾驶汽车 [Yu et al. 2020a; Sun et al. 2020a]、医学诊断 [AlBadawy et al. 2018; Dai and Gool 2018] 这样的高风险应用都需要模型良好的泛化到训练数据中没有见过的环境中,例如,测试样例来自不同的国家,处于不同的驾驶条件,或来自不同的医院。先前的工作已经表明:即使是对目前最先进的模型,这些分布变化也会导致性能的大幅下降 [Blitzer et al. 2006; Daumé III 2007;Sugiyama et al. 2007; Ganin and Lempitsky 2015; Peng et al. 2019; Kumar et al. 2020a; Arjovskyet al. 2019; Szegedy et al. 2014; Hendrycks and Dietterich 2019; Sagawa et al. 2020a; Recht et al.2019; Abney 2007; Ruder and Plank 2018; Geirhos et al. 2018; Kumar et al. 2020b; Yu et al. 2020b;Geirhos et al. 2020; Xie et al. 2021a; Koh et al. 2021]。一个基础模型在采样自分布的大量不同的无标签数据集上进行训练,然后可以被适配到许多的下游任务中。

对于每一个下游任务,基础模型在带标签的从训练分布中采样的分布内(in-distribution, ID)训练数据上进行训练,然后在分布外(out-of-distribution, OOD)的测试分布上进行评价。

例如,一个贫困地图预测模型 [Xie et al. 2016; Jean et al. 2016] 可以在全世界的无标签卫星数据中学习所有国家的有用特征,然后在带标签的来自尼日利亚的样例上进行微调,最终在缺乏带标签样例的马拉维上进行评价。我们认为:1)基础模型在鲁棒性方面是一个特别具有前途的方法。现有工作表明了在无标签数据上进行预训练是一种有效的、通用的提高在 OOD 测试分布上准确性的方法,这与限制于有限的分布变化的许多鲁棒性干预措施相反。然而,我们同样讨论了 2)为什么基础模型可能无法总是应对分布变化,例如某些由于伪相关性或随时间改变的分布变化。最后,3)我们概述了几个利用和提高基础模型鲁棒性的研究方向。我们注意到,基础模型提高下游任务性能的一个方法是为适配模型提供归纳偏置(通过模型初始化),这些偏置是在下游训练数据之外的多种数据集上学习得到的。然而,同样的归纳偏置也可能从预训练数据中编码有害关联,并在分布变化的情况下导致表示和分配危害。参考资料:https://mp.weixin.qq.com/s/yuHeCvmSCDNRUbJX1iLhRAhttps://arxiv.org/abs/2108.07258

相关文章
|
4月前
|
机器学习/深度学习 人工智能
IBM推出创新框架用“黑盒”方式,评估大模型的输出
【7月更文挑战第17天】IBM研发的创新框架以“黑盒”方法评估大模型输出的可信度,通过观察输入和输出,不涉及模型内部。采用逻辑回归模型,基于四个特征(输出长度、多样性、一致性和新颖性)来估计可信度。在多个数据集上测试,显示优于其他“黑盒”方法,且具有可解释性。但仅适用于可访问的模型,可能忽略内部细节,不适用于所有场景。[[arXiv:2406.04370](https://arxiv.org/abs/2406.04370)]
55 4
|
6月前
|
算法 数据可视化 数据挖掘
IBM SPSS Modeler分类决策树C5.0模型分析空气污染物数据
IBM SPSS Modeler分类决策树C5.0模型分析空气污染物数据
|
人工智能 计算机视觉 机器学习/深度学习
IBM发布最新AI模型,帮视障者“看”到更多
在IBM最新的论文中,研究人员提出了一种能自主制作多样化、创造性和符合人类语境的图片文字说明的模型。实验证明,图片的文字说明取得了“良好”的性能,未来可以为强大的新计算机视觉系统奠定了基础。
553 0
|
机器学习/深度学习 测试技术 算法框架/工具
【测评】GPU训练机器学习模型哪家强?AWS、谷歌云、IBM等6大平台对比
使用官方数据和Credit,初创公司Rare Technologies最近发布了一个超大规模机器学习基准,对比了AWS、谷歌云、IBM等6家GPU硬件平台,从配置到训练时间、精度、价格等各方面。AWS和谷歌虽然整合性能好,但是性价比还是LearderGPU这样的新公司占优。
6072 0

热门文章

最新文章

下一篇
无影云桌面