文档|纸| COLAB笔记本和视频教程|外部资源| OGB示例
Pyg (Pytorch几何)是一个基于Pytorch的库,可轻松编写和训练与结构化数据相关的广泛应用程序编写和训练图形神经网络(GNNS)。
它包括各种在图形和其他不规则结构(也称为几何深度学习)上的各种方法组成的方法。此外,它由易于使用的迷你批次装载机组成,用于在许多小型和单一的巨型图,多GPU-support,torch.com上操作, torch.compile支持, DataPipe支持支持,大量常见的基准测试数据集(基于简单的简单接口(以创建您的创建您自己的简单接口)和有用的转换,用于在任意图形上学习,以及在3DDD MESHES或BOIND SESHES或POINTS上学习。
单击此处加入我们的Slack社区!
- 库亮点
- 新用户的快速旅行
- 体系结构概述
- 实施的GNN模型
- 安装
库亮点
无论您是机器学习研究人员还是机器学习工具包的首次用户,这都是一些理由,可以在图形结构化数据上尝试使用PYG进行机器学习。
- 易于使用和统一的API :只需使用10-20行代码即可开始培训GNN型号(请参阅下一节以获取快速旅行)。 Pyg是摇滚乐上的Pytorch :它使用以张量为中心的API,并将设计原理保持在Vanilla Pytorch附近。如果您已经熟悉Pytorch,那么使用PYG很简单。
- 全面且维护良好的GNN模型:图书馆开发人员或研究论文的作者已经实施了大多数最先进的图形神经网络架构,并准备好应用。
- 灵活性:现有的PYG模型可以轻松扩展,以便使用GNN进行自己的研究。对现有模型进行修改或创建新的体系结构非常简单,这要归功于其易于使用的消息传递API以及各种操作员和实用程序功能。
- 大型现实世界中的GNN模型:我们专注于在挑战现实世界中对GNN应用的需求,并支持对各种图形的学习,包括但不限于:可伸缩的GNN用于具有数百万个节点的图形;随着时间的推移,节点预测的动态GNN;具有多种节点类型和边缘类型的异质GNN。
新用户的快速旅行
在这次快速旅行中,我们强调了仅使用几行代码创建和培训GNN模型的便利性。
培训自己的GNN模型
在PYG的第一次瞥见中,我们实施了GNN的培训,用于在引文图中对论文进行分类。为此,我们加载了CORA数据集,并使用预定义的GCNConv创建一个简单的2层GCN模型:
import torch
from torch import Tensor
from torch_geometric . nn import GCNConv
from torch_geometric . datasets import Planetoid
dataset = Planetoid ( root = '.' , name = 'Cora' )
class GCN ( torch . nn . Module ):
def __init__ ( self , in_channels , hidden_channels , out_channels ):
super (). __init__ ()
self . conv1 = GCNConv ( in_channels , hidden_channels )
self . conv2 = GCNConv ( hidden_channels , out_channels )
def forward ( self , x : Tensor , edge_index : Tensor ) -> Tensor :
# x: Node feature matrix of shape [num_nodes, in_channels]
# edge_index: Graph connectivity matrix of shape [2, num_edges]
x = self . conv1 ( x , edge_index ). relu ()
x = self . conv2 ( x , edge_index )
return x
model = GCN ( dataset . num_features , 16 , dataset . num_classes )现在,我们可以在训练循环中优化该模型,类似于标准的Pytorch培训程序。
import torch . nn . functional as F
data = dataset [ 0 ]
optimizer = torch . optim . Adam ( model . parameters (), lr = 0.01 )
for epoch in range ( 200 ):
pred = model ( data . x , data . edge_index )
loss = F . cross_entropy ( pred [ data . train_mask ], data . y [ data . train_mask ])
# Backpropagation
optimizer . zero_grad ()
loss . backward ()
optimizer . step ()有关评估最终模型性能的更多信息,请参见相应的示例。
创建自己的GNN层
除了轻松应用现有GNN,PYG还使实现自定义图形神经网络变得易于使用(随附的教程,请参见此处)。例如,这是实现Wang等人的边缘卷积层所需的全部。 :
$ x_i^{ prime}〜=〜 max_}
import torch
from torch import Tensor
from torch . nn import Sequential , Linear , ReLU
from torch_geometric . nn import MessagePassing
class EdgeConv ( MessagePassing ):
def __init__ ( self , in_channels , out_channels ):
super (). __init__ ( aggr = "max" ) # "Max" aggregation.
self . mlp = Sequential (
Linear ( 2 * in_channels , out_channels ),
ReLU (),
Linear ( out_channels , out_channels ),
)
def forward ( self , x : Tensor , edge_index : Tensor ) -> Tensor :
# x: Node feature matrix of shape [num_nodes, in_channels]
# edge_index: Graph connectivity matrix of shape [2, num_edges]
return self . propagate ( edge_index , x = x ) # shape [num_nodes, out_channels]
def message ( self , x_j : Tensor , x_i : Tensor ) -> Tensor :
# x_j: Source node features of shape [num_edges, in_channels]
# x_i: Target node features of shape [num_edges, in_channels]
edge_features = torch . cat ([ x_i , x_j - x_i ], dim = - 1 )
return self . mlp ( edge_features ) # shape [num_edges, out_channels] 体系结构概述
PYG提供了一个多层框架,使用户能够在低水平和高级构建图形神经网络解决方案。它包括以下组件:
- PYG引擎利用具有完整的
torch.compile和Torchscript支持的功能强大的Pytorch深度学习框架,以及添加有效的CPU/CUDA库来在稀疏数据上操作,例如pyg-lib 。 - PYG存储处理数据处理,转换和加载管道。它能够处理和处理大型图数据集,并为异构图提供有效的解决方案。它进一步提供了多种抽样溶液,可以在大规模图上训练GNN。
- PYG操作员捆绑了用于实现图形神经网络的基本功能。 PYG支持重要的GNN构建块,这些构件可以组合并应用于GNN模型的各个部分,从而确保GNN设计的灵活性丰富。
- 最后,PYG提供了大量的GNN模型,以及在标准图基准上展示GNN模型的示例。由于其灵活性,用户可以轻松地构建和修改自定义GNN模型以满足其特定需求。
实施的GNN模型
我们根据类别列出当前支持的PYG模型,层和操作员:
GNN层:所有图形神经网络层都是通过nn.MessagePassing接口实现的。 GNN层指定了如何执行消息传递,即通过设计不同的消息,聚合和更新功能,如下所示。这些GNN层可以堆叠在一起以创建图形神经网络模型。
- 来自KIPF和Welling的GCNCONV :图形卷积网络的半监督分类(ICLR 2017)[示例]
- Defferrard等人的Chebconv 。 :具有快速局部光谱过滤的图表上的卷积神经网络(NIPS 2016)[示例]
- 来自Veličković等人的Gatconv 。 :图形注意网络(ICLR 2018)[示例]
扩展以查看所有实施的GNN层...
- Chen等人的GCN2Conv 。 :简单而深的图形卷积网络(ICML 2020)[示例1 ,示例2 ]
- Fey等人的SplineConv 。 :splinecnn:使用连续B-Spline内核快速几何深度学习(CVPR 2018)[ example1 , example2 ]
- Gilmer等人的NNCONV 。 :量子化学的神经信息传递(ICML 2017)[示例1 ,示例2 ]
- XIE和Grossman的CGCONV :Crystal Graph卷积神经网络,用于对材料特性进行准确且可解释的预测(物理评论信120,2018)
- 来自Simonovsky和Komodakis的ECCONV :图表上的边缘条件卷积(CVPR 2017)
- 来自Palor等人的EGCONV 。 :自适应过滤器和聚合器融合用于有效的图形卷积(GNNSYS 2021)[示例]
- Brody等人的GATV2Conv 。 :图形注意力网络的关注程度如何? (ICLR 2022)
- Shi等人的TransformerConv 。 :蒙版标签预测:半监督分类的统一消息传递模型(Corr 2020)[示例]
- 汉密尔顿等人的Sageconv 。 :大图上的归纳表示学习(NIPS 2017)[示例1 ,示例2 ,示例3 , exampe4 ]
- GraphConv来自,例如,Morris等。 :Weisfeiler和Leman进行神经:高阶图神经网络(AAAI 2019)
- Li等人的GatedGraphConv 。 :门控图序列神经网络(ICLR 2016)
- Bresson和Laurent的ResgatedGraphConv :剩余的封闭图形弯曲(Corr 2017)
- Xu等人的Ginconv 。 :图形神经网络有多强大? (ICLR 2019)[示例]
- Hu等人的Gineconv 。 :预训练图神经网络的策略(ICLR 2020)
- Bianchi等人的Armaconv 。 :带有卷积ARMA过滤器的图形神经网络(Corr 2019)[示例]
- Wu等人的SGCONV 。 :简化图形卷积网络(Corr 2019)[示例]
- Klicpera等人的AppNP 。 :预测然后传播:图神经网络符合个性化的Pagerank(ICLR 2019)[示例]
- Duvenaud等人的MFCONV 。 :用于学习分子指纹的图表上的卷积网络(NIPS 2015)
- 来自TheKumparampil等人的Agnnconv 。 :基于注意的半监督学习的基于注意的图形神经网络(Corr 2017)[示例]
- Du等人的TagConv 。 :拓扑自适应图卷积网络(Corr 2017)[示例]
- Corso等人的PNACONV 。 :图网的主要邻域聚集(Corr 2020)[示例]
- Bo等人的Faconv 。 :超出图形卷积网络中的低频信息(AAAI 2021)
- Rozemberczki等人的PDNCONV 。 :神经消息传递的探路者发现网络(www 2021)
- Schlichtkrull等人的RGCNCONV 。 :使用图形卷积网络(ESWC 2018)[ example1 , xpemend2 ]对关系数据进行建模
- Busbridge等人的RGATCONV 。 :关系图注意网络(Corr 2019)[示例]
- Brockschmidt的FilmConv :GNN-FILM:具有特征线性调制的图形神经网络(ICML 2020)[示例]
- Derr等人的SignedConv 。 :签名的图形卷积网络(ICDM 2018)[示例]
- Fey的DNACONV :Just Just:Graph神经网络中的动态邻域聚集(ICLR-W 2019)[示例]
- Ma等人的Panconv 。 :基于路径积分的卷积和图形神经网络的合并(Neurips 2020)
- PointNetConv (包括迭代最远的点采样,基于最近的邻居或最大距离的动态图生成以及Qi等人的k-nn插值)。 :PointNet:3D分类和细分的点集深度学习(CVPR 2017)和PointNet ++:指标空间中点集的深层分层特征学习(NIPS 2017)[ example1 ,xpemend1,xpement1, xpecence2 ]
- Wang等人的Edgeconv 。 :用于在点云上学习的动态图CNN(Corr,2018)[示例1 ,示例2 ]
- Li等人的XCONV 。 :pointcnn:X转换点上的卷积(Neurips 2018)[示例]
- Deng等人的PPFCONV 。 :PPFNET:全球上下文意识到鲁棒3D点匹配的本地功能(CVPR 2018)
- Monti等人的GMMCONV 。 :使用混合模型CNN对图和歧管上的几何深度学习(CVPR 2017)
- Verma等人的FeastConv 。 :feastnet:用于3D形状分析的特征步态图卷积(CVPR 2018)
- Zhao等人的PointTransFormerConv 。 :Point Transformer(2020)
- Bai等人的HyperGraphConv 。 :HyperGraph卷积和超图(Corr 2019)
- Qasim等人的GravnetConv 。 :具有距离加权图网络的不规则粒子检测器几何形状的学习表示(欧洲物理学杂志C,2019年)
- 来自Kim and Oh的Supergat :如何找到您的友好社区:与自我判断(ICLR 2021)的图形注意力设计[示例]
- Hu等人的HGTCONV 。 :异质图变压器(www 2020)[示例]
- 来自Mo等人的Heatconv 。 :多代理轨迹预测的异质边缘增强图形网络(Corr 2021)
- 朱等人的SSGCONV 。 :简单的光谱图卷积(ICLR 2021)
- Zhang等人的FusedgatConv 。 :了解GNN计算图:协调计算,IO和内存透视图(MLSYS 2022)
- Rampášek等人的GPSCONV 。 :一般,功能强大,可扩展的图形变压器(Neurips 2022)的配方[示例]
合并层:图池层将图(或子图)中一组节点的矢量表示结合到单个矢量表示中,总结了其节点的属性。它通常应用于图形级任务,这些任务需要将节点特征组合到单个图表中。
- GAO和JI的Top-K池:图U-Nets(ICML 2019),Cangea等。 :迈向稀疏的层次图分类器(Neurips-W 2018)和Knyazev等。 :了解图神经网络中的注意力和概括(ICLR-W 2019)[示例]
- Ying等人的差异。 :层次图表示学习具有可区分的合并(Neurips 2018)[示例]
展开以查看所有实施的池层...
- Li等人的注意聚集。 :用于学习图形结构化对象的相似性的图形匹配网络(ICML 2019)[示例]
- Vinyals等人的SET2SET 。 :顺序问题:集合的顺序(ICLR 2016)[示例]
- 从Zhang等人分类聚集。 :用于图形分类的端到端深度学习体系结构(AAAI 2018)[示例]
- Bianchi等人的Mincut Pooling 。 :用于图池的图形神经网络的光谱聚类(ICML 2020)[示例]
- Tsitsulin等人的DMON POMING 。 :使用图形神经网络(Corr 2020)[示例]的图形聚类[示例]
- Dhillon等人的Graclus Poling 。 :没有特征向量的加权图切割:多级方法(Pami 2007)[示例]
- 来自EG ,Simonovsky和Komodakis的Voxel Grid PORINGING :图上的卷积神经网络中的动态边缘条件过滤器(CVPR 2017)[示例]
- Lee等人的下垂合并。 :自我发项图池(ICML 2019)和Knyazev等。 :了解图神经网络中的注意力和概括(ICLR-W 2019)[示例]
- Diehl等人的边缘汇聚。 :通过边缘收缩(ICML-W 2019)和DIEHL迈出图形:图形神经网络的边缘收缩池(Corr 2019)[示例]
- Ranjan等人的急救。 :ASAP:自适应结构意识到学习层次图表示(AAAI 2020)[示例]
- Ma等人的Panpooling 。 :基于路径积分的卷积和图形神经网络的合并(Neurips 2020)
- 来自Khasahmadi等人的纪念。 :基于内存的图形网络(ICLR 2020)[示例]
- Baek等人的图形多磁力变压器。 :使用图形多层池(ICLR 2021)[示例]准确学习图表表示形式
- Bartunov等人的平衡聚集。 :(UAI 2022)[示例]
GNN模型:我们支持的GNN模型结合了多个消息传递层,用户可以直接使用这些预定义的模型来对图进行预测。与简单的GNN层堆叠不同,这些模型可能涉及预处理,其他可学习的参数,跳过连接,图形变形等。
- Schütt等人的Schnet 。 :schnet:用于建模量子相互作用的连续过滤器卷积神经网络(NIPS 2017)[示例]
- Klicpera等人的Dimenet和DimenetPlusplus 。 :分子图(ICLR 2020)的定向消息传递以及非平衡分子的快速和不确定性意识到的方向信息(Neurips-W 2020)[示例] [示例]
- Node2Vec来自Grover and Leskovec:Node2Vec:网络的可扩展功能学习(KDD 2016)[示例]
- Veličković等人的深图信息。 :深图信息(ICLR 2019)[示例1 ,示例2 ]
- Park等人的深度多重图信息。 :无监督的属性多重网络嵌入(AAAI 2020)[示例]
- Shi等人的蒙版标签预测。 :蒙版标签预测:半监督分类的统一消息传递模型(Corr 2020)[示例]
- Yang等人的PMLP 。 :图形神经网络本质上是良好的概括:通过桥接GNN和MLP的见解(ICLR 2023)
扩展以查看所有已实施的GNN模型...
- Xu等人的跳跃知识。 :具有跳跃知识网络(ICML 2018)的图表上的表示形式学习[示例]
- 一种用于构建任何类型的图形网络的金属工具,类似于Battaglia等人的TensorFlow图库。 :关系归纳偏见,深度学习和图形网络(Corr 2018)
- Dong等人的Metapath2Vec 。 :metapath2vec:异质网络的可扩展表示学习(KDD 2017)[示例]
- 所有图形自动编码器和各种自动编码器的变体都来自:
- 来自KIPF和Welling的变异图自动编码器(NIPS-W 2016)[示例]
- Pan等人的图形嵌入的对抗正规图自动编码器。 (IJCAI 2018)[示例]
- Salha等人的单跳线模型的简单有效的图形自动编码器。 (ECML 2020)[示例]
- Zhang和Chen的密封:基于图神经网络的链接预测(Neurips 2018)[示例]
- Jin等人的Renet 。 :用于推理时间知识图的重复事件网络(ICLR-W 2019)[示例]
- GAO和JI的Graphunet :Graph U-Nets(ICML 2019)[示例]
- Xiong等人的ActentiveFP 。 :使用图形注意机制(J.Med。Chem。2020)推动分子表示的边界以进行药物发现[示例]
- DeepGCN和Li等人的Genconv 。 :DEEPGCNS:GCN可以像CNN一样深吗? (ICCV 2019)和DeeperGCN:您需要训练更深的GCN(Corr 2020)[示例]
- 王子等。 :具有完全不平衡的标签(TKDE 2020)的网络嵌入[示例]
- Ying等人的gnnexplainer 。 :gnnexplainer:生成图形神经网络的解释(Neurips 2019)[ example1 , xenpem2 , xpace3 ]
- Zhang等人的无图形神经网络。 :无图形神经网络:通过蒸馏(Corr 2021)教授旧MLP的新技巧[示例]
- Lim等人的Linkx 。 :在非全体图形上进行大规模学习:新的基准测试和强大的简单方法(Neurips 2021)[示例]
- Li等人的Revgnn 。 :带有1000层的训练图神经(ICML 2021)[示例]
- Bordes等人的Transe 。 :翻译用于建模多关系数据的嵌入式(NIPS 2013)[示例]
- Trouillon等人的复合物。 :简单链接预测的复杂嵌入(ICML 2016)[示例]
- Yang等人的脱口秀。 :嵌入学习和推断知识基础的实体和关系(ICLR 2015)[示例]
- 从Sun等人旋转。 :旋转:通过关系旋转在复杂空间中嵌入的知识图(ICLR 2019)[示例]
GNN运营商和实用程序: PYG配备了许多GNN模型中通常使用的神经网络操作员。他们遵循可扩展的设计:将这些操作员和图形实用程序应用于现有的GNN层和模型以进一步增强模型性能。
- Rong等人的Dropedge 。 :dropEdge:朝向节点分类的深图卷积网络(ICLR 2020)
- dropnode , maskFeature和您等人的addmodomedge 。 :图形对比度学习与增强(神经2020年)
- Li等人的DropPath 。 :Maskgae:蒙版图建模符合图自动编码器(ARXIV 2022)
- Veličković等人的洗牌码。 :Deep Graph Infomax(ICLR 2019)
- Cai等人的石墨。 :Graphnorm:一种加速图神经网络训练的原则方法(ICML 2021)
- Klicpera等人的GDC 。 :扩散改善图形学习(Neurips 2019)[示例]
扩展以查看所有已实施的GNN运营商和实用程序...
- Dwivedi等人的GraphSizenorm 。 :基准图形神经网络(Corr 2020)
- 来自Zhao和Akoglu的配对:配对:在GNNS中进行过度尺寸(ICLR 2020)
- 来自Yang等人的MeneubTractionNorm 。 :重新访问深GCN中的“过度平滑”(Corr 2020)
- Zhou等人的DiffGroupNorm 。 :迈向具有可区分群归一化的更深图神经网络(神经2020)
- Jin等人的树分解。 :分子图生成的交界树变异自动编码器(ICML 2018)
- Rossi等人的TGN 。 :用于深度学习动态图(GRL+ 2020)的时间图网络[示例]
- Weisfeiler Lehman运营商Weisfeiler和Lehman的操作员:将图形减少到规范形式,并在此减少过程中产生的代数(Nauchno-Technichnicheskaya Informatsia 1968)[示例] [示例]
- Togninalli等人的连续Weisfeiler Lehman运营商。 :Wasserstein Weisfeiler-Lehman图核(Neurips 2019)
- Zhu和Ghahramani的标签传播:通过标签传播的标签和未标记数据学习(CMU-Cald 2002)[示例]
- CAI和Wang的本地学位概况:非属性图分类的简单而有效的基线(Corr 2018)
- Huang等人的Crorice和Smooth 。 :结合标签传播和简单模型超过绩效图形神经网络(Corr 2020)[示例]
- Henderson等人的Gini和Bro正规化。 :改善分子图神经网络的解释性,正式化和诱导的稀疏性(ICML 2021)
- Zhao等人的rootedegonets和rootedrwsubgraph 。 :从恒星到子图:以局部结构意识提升任何GNN(ICLR 2022)
- Rossi等人的特征传播。 :关于特征传播在学习图表特征缺少特征的图表中的不合理有效性(Corr 2021)
可扩展的GNN: PYG支持可以扩展到大规模图的图形神经网络的实现。由于整个图,其关联的功能和GNN参数不能适合GPU内存,因此此类应用程序具有挑战性。许多最先进的可伸缩性方法通过对社区进行微型批次培训,图形聚类和分区或使用简化的GNN模型来应对这一挑战。这些方法已在PYG中实施,可以从上述GNN层,操作员和模型中受益。
- 汉密尔顿等人的邻居负载。 :在大图上的归纳表示学习(NIPS 2017)[ example1 , xpemend2 , xpemend3 ]
- Chiang等人的ClusterGCN 。 :cluster-GCN:一种用于训练深层和大图卷积网络的有效算法(KDD 2019)[ example1 , example2 ]
- Zeng等人的GraphSaint 。 :GraphSaint:基于图抽样的电感学习方法(ICLR 2020)[示例]
展开以查看所有实施的可伸缩GNN ...
- Zeng等人的影子。 :将图神经网络的深度和范围解耦(Neurips 2021)[示例]
- Rossi等人的签名。 :标志:可扩展的插入图神经网络(Corr 2020)[示例]
- Hu等人的HGTLOADER 。 :异质图变压器(www 2020)[示例]
安装
PYG可用于Python 3.9至Python 3.12。
Anaconda
您现在可以通过Anaconda安装PYG,以适用于所有主要的OS/Pytorch/CUDA组合?如果您尚未安装Pytorch,请按照Pytorch官方文档中所述通过conda进行安装。鉴于您已安装了Pytorch( >=1.8.0 ),只需运行
PYPI
从PYG 2.3开始,您可以安装和使用PYG,而无需任何外部库,除了Pytorch。为此,只需运行
pip install torch_geometric
其他库
如果您想利用PYG中的完整功能,则可能需要安装几个其他库:
-
pyg-lib :异质GNN操作员和图形采样例程 torch-scatter :加速有效的稀疏减少torch-sparse : SparseTensor支持torch-cluster :图形聚类例程torch-spline-conv : SplineConv支持
这些软件包带有基于Pytorch C ++/CUDA/HIP(ROCM)扩展接口的CPU和GPU内核实现。对于PYG的基本用法,这些依赖项是完全可选的。我们建议从最小安装开始,并在您真正需要它们后安装其他依赖项。
为了易于安装这些扩展,我们为所有主要的OS/Pytorch/CUDA组合提供了pip轮毂,请参见此处。
Pytorch 2.5
要安装Pytorch 2.5.0的二进制文件,只需运行
pip install pyg_lib torch_scatter torch_sparse torch_cluster torch_spline_conv -f https://data.pyg.org/whl/torch-2.5.0+${CUDA}.html
${CUDA}应取代cpu , cu118 , cu121或cu124 ,具体取决于您的pytorch安装。
| cpu | cu118 | cu121 | cu124 |
|---|
| Linux | ✅ | ✅ | ✅ | ✅ |
| 视窗 | ✅ | ✅ | ✅ | ✅ |
| macos | ✅ | | | |
Pytorch 2.4
要安装Pytorch 2.4.0的二进制文件,只需运行
pip install pyg_lib torch_scatter torch_sparse torch_cluster torch_spline_conv -f https://data.pyg.org/whl/torch-2.4.0+${CUDA}.html
${CUDA}应取代cpu , cu118 , cu121或cu124 ,具体取决于您的pytorch安装。
| cpu | cu118 | cu121 | cu124 |
|---|
| Linux | ✅ | ✅ | ✅ | ✅ |
| 视窗 | ✅ | ✅ | ✅ | ✅ |
| macos | ✅ | | | |
Note: Binaries of older versions are also provided for PyTorch 1.4.0, PyTorch 1.5.0, PyTorch 1.6.0, PyTorch 1.7.0/1.7.1, PyTorch 1.8.0/1.8.1, PyTorch 1.9.0, PyTorch 1.10.0/1.10.1/1.10.2, PyTorch 1.11.0, PyTorch 1.12.0/1.12.1,Pytorch 1.13.0/1.13.1,Pytorch 2.0.0/2.0.1,Pytorch 2.1.0/2.1.1.1/2.1.2,Pytorch 2.2.0/2.2.1.2.1.2.1/2.2.2,以及Pytorch 2.3.0/2.3.0/2.3.0/2.3.1/2.3.1(遵循同一过程)。对于较旧的版本,您可能需要明确指定最新支持的版本编号,或通过pip install --no-index安装,以防止源头安装手动安装。您可以在此处查找最新支持的版本号。
NVIDIA PYG容器
NVIDIA提供了一个PYG Docker容器,可轻松地培训和与PYG一起部署GPU加速GNN,请参见此处。
每晚和主人
如果您想尝试尚未完全发布的最新PYG功能,请安装夜间版本的PYG
或通过Master通过
pip install git+https://github.com/pyg-team/pytorch_geometric.git
ROCM车轮
外部pyg-rocm-build存储库提供了有关如何为ROCM安装PYG的车轮和详细说明。如果您对此有任何疑问,请在此处打开一个问题。
引用
如果您在自己的工作中使用此代码,请引用我们的论文(以及所使用的方法的各自论文):
@inproceedings{Fey/Lenssen/2019,
title={Fast Graph Representation Learning with {PyTorch Geometric}},
author={Fey, Matthias and Lenssen, Jan E.},
booktitle={ICLR Workshop on Representation Learning on Graphs and Manifolds},
year={2019},
}
如果您希望在外部资源中列出您的工作,请随时给我们发送电子邮件。如果您注意到任何意外的事情,请打开一个问题,让我们知道。如果您有任何疑问或缺少特定功能,请随时与我们讨论它们。我们有动力不断使PYG变得更好。