NeurIPS 2022 Oral | 基于最优子集的神经集合函数学习方法EquiVSet

简介: NeurIPS 2022 Oral | 基于最优子集的神经集合函数学习方法EquiVSet


机器之心编辑部

腾讯 AI Lab、帝国理工与中山大学合作发表论文《Learning Neural Set Functions Under the Optimal Subset Oracle》,提出基于最优子集的集合函数学习方法。


集合函数被广泛应用于各种场景之中,例如商品推荐、异常检测和分子筛选等。在这些场景中,集合函数可以被视为一个评分函数:其将一个集合作为输入并输出该集合的分数。我们希望从给定的集合中选取出得分最高的子集。鉴于集合函数的广泛应用,如何学习一个适用的集合函数是解决许多问题的关键。为此,腾讯 AI Lab、帝国理工与中山大学合作发表论文《Learning Neural Set Functions Under the Optimal Subset Oracle》,提出基于最优子集的集合函数学习方法。该方法在多个应用场景中取得良好效果。论文已被 NeurIPS 2022 接收并选为口头报告(Oral Presentation)。



一、引言


很多现实应用场景与集合密切相关,例如推荐系统、异常检测和分子筛选等。这些应用都潜在地学习了一个集合函数来评价给定集合的得分,使得输出的集合拥有最高得分。以商品推荐为例子(如下图所示),我们希望从某个网店的商品库V中推荐子集,使得用户对该商品子集拥有最高评分


图 1 集合函数学习在商品推荐中的例子


具体地,我们假设每个用户心中存在一个评分函数,该函数将一个商品子集作为输入,输出用户对该子集的评分,即用户总是从系统推荐的商品集合中购买得分最高的商品子集:



我们希望学习一个函数,使其尽可能逼近真正的评分函数. 然而在实际应用场景,由于标注成本过高,我们无法得到用户对每一个商品子集的评分。因此,我们假设数据集的形式为,其中为用户i购买的商品子集,为对应的商品库。我们希望找到合适的参数, 使得用户购买的商品最大化集合函数


然而找到合适的参数并不是一件容易的事情。为此,我们将目标函数定义为最大似然估计



其中我们通过的正比约束使得最终学习到的集合函数满足上文的要求。进一步地,我们希望该概率分布及由此推导的训练方法满足若干的性质,如:置换不变性、最小先验假设和可扩展性(scalability)等。


在本文中,我们提出了等变变分集合函数学习方法 (Equivariant Variational inference for Set function learning. EquiVSet). 具体地,我们使用能量模型(energy-based models)建模概率能量模型是最大熵分布,满足最小先验假设。其次,我们通过 DeepSet 类型的模型架构建模集合函数,使其满足置换不变性;最后我们使用均摊变分分布来满足可扩展性的要求。实验证明,EquiVSet 在商品推荐、异常检测和分子筛选等现实应用场景中都有出色表现。值得一提的是,虽然传统的端到端子集预测模型也适用于以上场景,但是他们通常属于黑盒模型。在本文中,我们显式建模集合函数,并通过最大化集合函数来进行子集预测。学习的集合函数可用来评价不同子集的效益,因此更具有可解释性。

二、方法简介


图 2 EquiVSet 训练和推理过程概览


我们首先将概率模型定义为能量模型:, 并用 DeepSet 架构对能量函数进行建模,从而实现置换不变性。此外,由于能量模型为最大熵分布,其具有最小信息先验假设的特点。为了训练该模型,我们进一步引入了变分分布, 并通过神经网络对其进行建模。如图 2 所示,模型训练包含两个步骤:


1. 为了学习变分,我们可以最小化之间的 KL 距离。

2. 为了训练模型,我们首先通过神经网络 EquiNet 输出变分分布的初始参数, 然后通过平均场变分推断来更新变分参数,使其逼近模型分布此外,该步骤可以让模型参数依赖于变分参数因此我们可以通过最小化交叉熵损失来更新模型参数.

模型通过反复迭代步骤 1 和 2 来更新参数, 从而达到合作式训练变分网络 EquiNet 和能量网络的目的。这种合作学习方式的效果可以通过图 3 形象示意:在每轮迭代中,我们通过均摊变分推断来更新变分分布的参数,使其不断逼近模型参数更新完毕后,我们通过最小化交叉熵损失来训练模型,使其不断逼近真实数据分布模型训练完毕后,近似地成立,因此我们可以根据变分参数来选取最优子集。值得注意的是, 算法角度来说, 简单使用端到端子集预测模型相当于只建模了变分网络 EquiNet, 即只建模了变分分布, 因此无法达到合作学习的目的。  我们后续的实验部分也验证了这种端到端子集预测方法的性能与合作学习方法 EquiVSet 相差甚远。  

图 3 EquiVSet 参数更新示意图


三、实验结果


为了验证 EquiVSet 的有效性,我们在三个任务上进行测试:商品推荐、异常检测和分子筛选。


1. 在商品推荐任务中,我们使用 amazon baby register dataset,该数据集包含了真实的用户购买记录。在该任务上,EquiVSet 在大部分场景中都取得最佳性能。具体地,相比于先前的 SOTA 算法 PGM,EuiVSet 的性能平均提升 33%。相比于传统的黑盒端到端子集预测方法 DeepSet(NoSetFn)(该方法相当于仅建模了变分网络 EquiNet),EquiVSet 的性能平均提升 39%,说明了显式建模集合函数的重要性。



2. 在异常检测任务中,我们使用四个经典数据集:double mnist,celebA,fashion-mnist 和 cifar-10。下图给出了 celebA 上异常检测的例子。


图 3 celebA 数据集。每一行是一个数据样本。在每个样本中,正常图片拥有两个共同属性(最右列),异常图片(红色方框)没有该属性。


以下表格提供不同方法在该任务上的性能对比,可以看出 EquiVSet 显著优于其他方法, 并比 PGM 和 DeepSet(NoSetFn) 的性能分别平均提高 37% 和 80%。


 

3. 在分子筛选中,我们使用 PDBBind 和 BindingDB 两个经典数据。该任务是从给定的分子库中,筛选出符合一定属性的分子。下表是 EquiVSet 和各个方法的对比结果。


四、结论


本文提出的基于最优子集的集合函数学习方法。通过将集合概率定义成能量模型,使得模型满足置换不变性、最小先验等特点。借助最大似然方法和等变变分技巧,模型能够高效地训练和推理。在商品推荐、异常检测和分子筛选上的应用认证了该方法的有效性。


相关文章
|
6月前
|
机器学习/深度学习 编解码 定位技术
【论文速递】ECCV2022 - 密集高斯过程的小样本语义分割
【论文速递】ECCV2022 - 密集高斯过程的小样本语义分割
|
6月前
【论文速递】ICLR2018 - 用于小样本语义分割的条件网络
【论文速递】ICLR2018 - 用于小样本语义分割的条件网络
75 0
|
6月前
|
人工智能
ICLR 2024:鸡生蛋蛋生鸡?再论生成数据能否帮助模型训练
【4月更文挑战第3天】北京大学研究团队在ICLR 2024会议上提出了“自适应膨胀”(AdaInf)策略,改善对比学习效果。该策略针对数据膨胀(使用扩散模型生成图像增强)可能导致对比学习性能下降的问题,通过动态调整数据增强强度和混合比例,提升多种对比学习方法的性能。实验显示,AdaInf在不使用外部数据的情况下,使CIFAR-10线性准确率达到94.70%,刷新纪录。研究还揭示了数据增强与数据膨胀的互补关系,以及它们如何影响泛化误差。然而,AdaInf在大量生成数据和不同质量数据上的应用仍存在局限性。
81 3
ICLR 2024:鸡生蛋蛋生鸡?再论生成数据能否帮助模型训练
|
6月前
|
机器学习/深度学习 自然语言处理 算法
【论文精读】COLING 2022 -带有对偶关系图注意力网络的事件检测模型
【论文精读】COLING 2022 -带有对偶关系图注意力网络的事件检测模型
|
6月前
|
机器学习/深度学习 计算机视觉
【论文速递】MMM2020 - 电子科技大学提出一种新颖的局部变换模块提升小样本分割泛化性能
【论文速递】MMM2020 - 电子科技大学提出一种新颖的局部变换模块提升小样本分割泛化性能
42 0
|
人工智能 数据可视化 计算机视觉
AAAI 2023 Oral | 回归元学习,基于变分特征聚合的少样本目标检测实现新SOTA
AAAI 2023 Oral | 回归元学习,基于变分特征聚合的少样本目标检测实现新SOTA
159 0
|
机器学习/深度学习 编解码 人工智能
ECCV 2022 | 清华&Meta提出HorNet,用递归门控卷积进行高阶空间相互作用(1)
ECCV 2022 | 清华&Meta提出HorNet,用递归门控卷积进行高阶空间相互作用
|
计算机视觉
ECCV 2022 | 清华&Meta提出HorNet,用递归门控卷积进行高阶空间相互作用(2)
ECCV 2022 | 清华&Meta提出HorNet,用递归门控卷积进行高阶空间相互作用
191 0
|
机器学习/深度学习 自然语言处理
下一篇
无影云桌面