pyGAT
1.0.0
這是Veličković等提出的圖形注意網絡(GAT)模型的Pytorch實現。 AL(2017,https://arxiv.org/abs/1710.10903)。
該存儲庫最初是從https://github.com/tkipf/pygcn分配的。 https://github.com/petarv-/gat可以找到GAT(TensorFlow)的官方存儲庫(TensorFlow)。因此,如果您在研究中利用Pygat模型的優勢,請引用以下內容:
@article{
velickovic2018graph,
title="{Graph Attention Networks}",
author={Veli{v{c}}kovi{'{c}}, Petar and Cucurull, Guillem and Casanova, Arantxa and Romero, Adriana and Li{`{o}}, Pietro and Bengio, Yoshua},
journal={International Conference on Learning Representations},
year={2018},
url={https://openreview.net/forum?id=rJXMpikCZ},
note={accepted as poster},
}
分支主包含本文的實現。分支samely_impl_tensorflow從官方Tensorflow存儲庫中實現。
對於分支機構大師,對泰坦XP上的Cora任務進行轉導學習的訓練需要大約0.9秒,整個訓練(〜800個時代)的訓練時間為10-15分鐘。最終精度在84.2至85.3之間(在5個不同的運行中獲得)。對於分支相似的_impl_tensorflow ,訓練需要少於1分鐘,達到〜83.0。
關於https://github.com/tkipf/pygcn的初始稀疏矩陣操作的小筆記:它們已被刪除。因此,當前模型在克上採用〜7GB。
我們使用Pytorch開發了稀疏的版本GAT。由於SoftMax函數,在數值上存在不穩定。因此,您需要仔細初始化。要使用稀疏版本GAT,請添加標誌--sparse 。稀疏版本的性能與TensorFlow相似。在泰坦上,XP的速度為0.08〜0.14秒。
Pygat依靠Python 3.5和Pytorch 0.4.1(由於Torch.SPARSE_COO_TENSOR)。
請隨時與任何反饋或創建問題/拉請請求聯繫。