이것은 Veličković et. AL (2017, https://arxiv.org/abs/1710.10903).
이 리포는 처음에 https://github.com/tkipf/pygcn에서 포크되었습니다. GAT (Tensorflow)의 공식 저장소는 https://github.com/petarv-/gat에서 제공됩니다. 따라서 연구에서 Pygat 모델을 이용하면 다음을 인용하십시오.
@article{
velickovic2018graph,
title="{Graph Attention Networks}",
author={Veli{v{c}}kovi{'{c}}, Petar and Cucurull, Guillem and Casanova, Arantxa and Romero, Adriana and Li{`{o}}, Pietro and Bengio, Yoshua},
journal={International Conference on Learning Representations},
year={2018},
url={https://openreview.net/forum?id=rJXMpikCZ},
note={accepted as poster},
}
지점 마스터 에는 논문의 구현이 포함되어 있습니다. Branch imike imike_impl_tensorflow 공식 Tensorflow 저장소의 구현.
지점 마스터 의 경우 Titan XP에서 Cora 작업에 대한 트랜스 덕션 학습의 교육은 전체 교육 (~ 800 에포크)의 경우 에포크 당 ~ 0.9 초, 10-15 분이 걸립니다. 최종 정확도는 84.2에서 85.3 사이입니다 (5 개의 다른 런에서 얻은). 분기 유사한 _impl_tensorflow 의 경우 훈련은 1 분 미만이 걸리고 ~ 83.0에 도달합니다.
https://github.com/tkipf/pygcn의 초기 희소 행렬 작업에 대한 작은 메모 : 제거되었습니다. 따라서 현재 모델은 그램에서 ~ 7GB를 사용합니다.
우리는 Pytorch를 사용하여 희소 버전 GAT를 개발합니다. SoftMax 기능으로 인해 수치 적으로 불안정성이 있습니다. 따라서 신중하게 초기화해야합니다. 스파 스 버전 GAT를 사용하려면 플래그 --sparse 추가하십시오. 스파 스 버전의 성능은 Tensorflow와 유사합니다. 타이탄 XP에서는 0.08 ~ 0.14 초가 걸립니다.
Pygat은 Python 3.5 및 Pytorch 0.4.1 (Torch.sparse_coo_tensor로 인해)에 의존합니다.
주저하지 말고 피드백을 받거나 문제/당기 요청을 작성하십시오.