นี่คือการใช้งาน pytorch ของโมเดลกราฟความสนใจ (GAT) ที่นำเสนอโดยVeličković et AL (2017, https://arxiv.org/abs/1710.10903)
repo ได้รับการแยกเริ่มต้นจาก https://github.com/tkipf/pygcn ที่เก็บอย่างเป็นทางการสำหรับ GAT (TensorFlow) มีอยู่ใน https://github.com/petarv-/gat ดังนั้นหากคุณสร้างประโยชน์จากโมเดล Pygat ในการวิจัยของคุณโปรดอ้างอิงสิ่งต่อไปนี้:
@article{
velickovic2018graph,
title="{Graph Attention Networks}",
author={Veli{v{c}}kovi{'{c}}, Petar and Cucurull, Guillem and Casanova, Arantxa and Romero, Adriana and Li{`{o}}, Pietro and Bengio, Yoshua},
journal={International Conference on Learning Representations},
year={2018},
url={https://openreview.net/forum?id=rJXMpikCZ},
note={accepted as poster},
}
อาจารย์ สาขามีการใช้งานจากกระดาษ สาขา ที่คล้ายกัน _impl_tensorflow การใช้งานจากที่เก็บ TensorFlow อย่างเป็นทางการ
สำหรับ อาจารย์ สาขาการฝึกอบรมการเรียนรู้ transductive เกี่ยวกับงาน CORA ใน Titan XP ใช้เวลา ~ 0.9 วินาทีต่อยุคและ 10-15 นาทีสำหรับการฝึกอบรมทั้งหมด (~ 800 Epochs) ความแม่นยำสุดท้ายอยู่ระหว่าง 84.2 ถึง 85.3 (ได้รับจากการวิ่ง 5 ครั้ง) สำหรับสาขา ที่คล้ายกัน _impl_tensorflow การฝึกอบรมใช้เวลาน้อยกว่า 1 นาทีและถึง ~ 83.0
โน้ตเล็ก ๆ เกี่ยวกับการดำเนินการเมทริกซ์เบาบางเริ่มต้นของ https://github.com/tkipf/pygcn: พวกเขาถูกลบออก ดังนั้นรุ่นปัจจุบันใช้เวลา ~ 7GB บนกรัม
เราพัฒนา GAT รุ่นเบาบางโดยใช้ Pytorch มีความไม่แน่นอนเชิงตัวเลขเนื่องจากฟังก์ชั่น softmax ดังนั้นคุณต้องเริ่มต้นอย่างระมัดระวัง หากต้องการใช้ GAT เวอร์ชัน Sparse ให้เพิ่มธง --sparse ส ประสิทธิภาพของเวอร์ชันกระจัดกระจายนั้นคล้ายคลึงกับ TensorFlow บน Titan XP ใช้เวลา 0.08 ~ 0.14 วินาที
Pygat อาศัย Python 3.5 และ Pytorch 0.4.1 (เนื่องจาก Torch.sparse_coo_tensor)
อย่าลังเลที่จะติดต่อสำหรับข้อเสนอแนะใด ๆ หรือสร้างปัญหา/คำขอดึง