清华大学计算机科学与技术系的研究人员近日开源了一款 NE/NRL 训练和测试框架 —— OpenNE,旨在帮助开发者对 NE/NRL(Network Representation Learning,网络表示学习)开展相关的实验和研究。
OpenNE 统一了不同 NE 模型输入和输出接口,并为每个模型提供可扩展选项。此外,还基于 TensorFlow 实现了经典 NE 模型,使得这些模型可以用 GPU 进行训练。
OpenNE 实现和修改的模型包括 DeepWalk、LINE、node2vec、GraRep、TADW 和 GCN,后续还将根据已公布的NRL 论文持续实现更多有代表性的 NE 模型。
与其他实现对比
运行环境:CPU:Intel(R)Xeon(R)CPU E5-2620 v3 @ 2.40GHz
下面是在不同数据集上对不同方法的节点分类结果。将表征维度设置为 128,GraRep 中的 kstep=4,node2vec 中 p=1,q=1。
BlogCatalog: 10312 nodes, 333983 edges, 39 labels, 非定向:
data/blogCatalog/bc_adjlist.txt
data/blogCatalog/bc_edgelist.txt
data/blogCatalog/bc_labels.txt
Wiki: 2405 nodes, 17981 edges, 19 labels, 定向:
data/wiki/Wiki_edgelist.txt
data/wiki/Wiki_category.txt
cora: 2708 nodes, 5429 edges, 7 labels, 定向:
data/cora/cora_edgelist.txt
data/cora/cora.features
data/cora/cora_labels.txt
原文发布时间为:2017-10-29
本文作者:佚名
本文来自云栖社区合作伙伴“51CTO”,了解相关信息可以关注。