relational learning关系学习

简介: 本文介绍relational learning关系学习。目前的介绍比较简略,会持续更新的。

1. 场景


学习样本之间存在关系,或样本内部存在结构(样本由多个components组成,components之间存在关系)。

关注面对现实世界数据的不确定性和复杂结构时,建模关系数据的联合分布。

(出自R-former,相关参考资料)


1.1 样本之间存在关系的情况(external relationships)

如网页之间以超链接连接。

或者attribute-value format,如电影的关联实体(Studio, Director, Producer, and Actor)本身还具有不同的attributes。任务可以是预测电影周末票房。

样本之间并非独立或同样本分布(i.i.d)。

在分类样本时考虑相关案例标签的方法:collective classification


1.2 样本内部存在结构的情况(internal structure)

常用individual-centered representations,如logical interpretations或strongly typed terms

如药物可能的组成分子(一个图)的数据库。任务可以是根据分子结构区分组成分子是否active

我总感觉这样说来,RNN/Transformer这种模型面对的序列数据也算这种类型


2. 解决方案


2.1 Inductive Logic Programming


2.2 Learning from Graphs


2.3 Multi-relational Data Mining

image.png


2.4 Statistical Relational Learning/Probabilistic Logic Learning

用于关系数据分类的统计关系学习方法主要用概率图模型建模标签依赖性。直接在概率图模型上推理posterior label distribution很难(因为关系结构复杂),因此常使用估算推理方法,如mean field methods或belief propagation。

CRF等很多方法会应用马尔科夫网络,包括关系马尔科夫网络3和马尔科夫逻辑网络。


probabilistic relational models (PRMs)

Bayesian logic programs (BLPs)

Naïve Bayes

Hidden Markov Models

Stochastic logic programs (SLPs)


强调表征学习的SOTA方法:

Neural Markov Logic Networks

Graph Markov Neural Network:GMNN: Graph Markov Neural Networks(用标签依赖性帮助实现inference/prediction model)


2.5 Relational Reinforcement Learning


2.6 时序数据处理

(注意:我并不确定这种算不算关系学习)

Transformer的自注意力机制将输入序列token之间的关系从RNN上的序列依赖拓展为了全局依赖。

相关文章
|
4月前
|
存储 数据库 知识图谱
知识图谱(Knowledge Graph)- Neo4j 5.10.0 使用 - CQL - 太极拳传承谱系表
知识图谱(Knowledge Graph)- Neo4j 5.10.0 使用 - CQL - 太极拳传承谱系表
65 0
|
4月前
|
存储 NoSQL 搜索推荐
知识图谱(Knowledge Graph)根本概念
知识图谱(Knowledge Graph)根本概念
133 0
|
自然语言处理 搜索推荐 计算机视觉
推荐系统中不得不学的对比学习(Contrastive Learning)方法(三)
推荐系统中不得不学的对比学习(Contrastive Learning)方法(三)
498 0
推荐系统中不得不学的对比学习(Contrastive Learning)方法(三)
|
存储 SQL 关系型数据库
关系模式(Relational Model)
关系模式(Relational Model)是一种在数据库中组织和表示数据的方式。它基于关系理论,使用表格(也称为关系)来存储和表示数据。在关系模型中,数据被组织为行(记录)和列(字段)的二维表格。
1384 0
|
机器学习/深度学习 SQL 数据采集
矩阵分解就能击败深度学习!MIT发布时序数据库tspDB:用SQL做机器学习
矩阵分解就能击败深度学习!MIT发布时序数据库tspDB:用SQL做机器学习
176 0
|
算法 搜索推荐
周志华《Machine Learning》学习笔记(2)--性能度量
本篇主要是对第二章剩余知识的理解,包括:性能度量、比较检验和偏差与方差。
136 0
周志华《Machine Learning》学习笔记(2)--性能度量
|
人工智能 算法 搜索推荐
【推荐系统论文精读系列】(一)--Amazon.com Recommendations
推荐系统算法在电商网站现在已经被广泛使用,特们会使用关于用户兴趣的数据作为输入然后去产生一系列的推荐列表。一些应用只使用顾客购买的物品或者显示他们兴趣的数据,而且他们还会使用用户的其它属性,包括用户浏览过的物品,人口特征画像,感兴趣的话题和最喜爱的艺术家等。
367 0
|
机器学习/深度学习 搜索推荐
【推荐系统论文精读系列】(十四)--Information Fusion-Based Deep Neural Attentive Matrix Factorization Recommendation
推荐系统的出现,有效地缓解了信息过载的问题。而传统的推荐系统,要么忽略用户和物品的丰富属性信息,如用户的人口统计特征、物品的内容特征等,面对稀疏性问题,要么采用全连接网络连接特征信息,忽略不同属性信息之间的交互。本文提出了基于信息融合的深度神经注意矩阵分解(ifdnamf)推荐模型,该模型引入了用户和物品的特征信息,并采用不同信息域之间的交叉积来学习交叉特征。此外,还利用注意机制来区分不同交叉特征对预测结果的重要性。此外,ifdnamf采用深度神经网络来学习用户与项目之间的高阶交互。同时,作者在电影和图书这两个数据集上进行了广泛的实验,并证明了该模型的可行性和有效性。
307 0
【推荐系统论文精读系列】(十四)--Information Fusion-Based Deep Neural Attentive Matrix Factorization Recommendation
|
机器学习/深度学习 负载均衡 搜索推荐
【推荐系统论文精读系列】(十六)--Locally Connected Deep Learning Framework for Industrial-scale Recommender Systems
在这项工作中,我们提出了一个局部连接的深度学习框架推荐系统,该框架将DNN的模型复杂性降低了几个数量级。我们利用Wide& Deep模型的思想进一步扩展了框架。实验表明,该方法能在较短的运行时间内取得较好的效果。
145 0
【推荐系统论文精读系列】(十六)--Locally Connected Deep Learning Framework for Industrial-scale Recommender Systems
|
机器学习/深度学习 搜索推荐 算法
【推荐系统论文精读系列】(十)--Wide&Deep Learning for Recommender Systems
具有非线性特征转化能力的广义线性模型被广泛用于大规模的分类和回归问题,对于那些输入数据是极度稀疏的情况下。通过使用交叉积获得的记忆交互特征是有效的而且具有可解释性,然后这种的泛化能力需要更多的特征工程努力。在进行少量的特征工程的情况下,深度神经网络可以泛化更多隐式的特征组合,通过从Sparse特征中学得低维的Embedding向量。可是,深度神经网络有个问题就是由于网络过深,会导致过度泛化数据。
189 0
【推荐系统论文精读系列】(十)--Wide&Deep Learning for Recommender Systems