pyGAT
1.0.0
这是Veličković等提出的图形注意网络(GAT)模型的Pytorch实现。 AL(2017,https://arxiv.org/abs/1710.10903)。
该存储库最初是从https://github.com/tkipf/pygcn分配的。 https://github.com/petarv-/gat可以找到GAT(TensorFlow)的官方存储库(TensorFlow)。因此,如果您在研究中利用Pygat模型的优势,请引用以下内容:
@article{
velickovic2018graph,
title="{Graph Attention Networks}",
author={Veli{v{c}}kovi{'{c}}, Petar and Cucurull, Guillem and Casanova, Arantxa and Romero, Adriana and Li{`{o}}, Pietro and Bengio, Yoshua},
journal={International Conference on Learning Representations},
year={2018},
url={https://openreview.net/forum?id=rJXMpikCZ},
note={accepted as poster},
}
分支主包含本文的实现。分支samely_impl_tensorflow从官方Tensorflow存储库中实现。
对于分支机构大师,对泰坦XP上的Cora任务进行转导学习的训练需要大约0.9秒,整个训练(〜800个时代)的训练时间为10-15分钟。最终精度在84.2至85.3之间(在5个不同的运行中获得)。对于分支相似的_impl_tensorflow ,训练需要少于1分钟,达到〜83.0。
关于https://github.com/tkipf/pygcn的初始稀疏矩阵操作的小笔记:它们已被删除。因此,当前模型在克上采用〜7GB。
我们使用Pytorch开发了稀疏的版本GAT。由于SoftMax函数,在数值上存在不稳定。因此,您需要仔细初始化。要使用稀疏版本GAT,请添加标志--sparse 。稀疏版本的性能与TensorFlow相似。在泰坦上,XP的速度为0.08〜0.14秒。
Pygat依靠Python 3.5和Pytorch 0.4.1(由于Torch.SPARSE_COO_TENSOR)。
请随时与任何反馈或创建问题/拉请请求联系。