该软件包由一个小型扩展库组成,其中包括具有自动射击支持的优化稀疏矩阵操作。该软件包当前包含以下方法:
所有包括在不同数据类型上的操作工作,并针对CPU和GPU实施。为了避免创建torch.sparse_coo_tensor ,此软件包通过简单地将index和value张量作为参数(具有与Pytorch中定义的相同形状)来定义稀疏张量的操作。请注意,仅具有自动踢的value ,因为index是离散的,因此没有可区分。
更新:您现在可以通过Anaconda安装pytorch-sparse以用于所有主要的OS/Pytorch/CUDA组合?鉴于您安装了pytorch >= 1.8.0 ,只需运行
conda install pytorch-sparse -c pyg
或者,我们为所有主要的OS/Pytorch/CUDA组合提供PIP轮毂,请参见此处。
要安装Pytorch 2.5.0的二进制文件,只需运行
pip install torch-scatter torch-sparse -f https://data.pyg.org/whl/torch-2.5.0+${CUDA}.html
${CUDA}应取代cpu , cu118 , cu121或cu124 ,具体取决于您的pytorch安装。
cpu | cu118 | cu121 | cu124 | |
|---|---|---|---|---|
| Linux | ✅ | ✅ | ✅ | ✅ |
| 视窗 | ✅ | ✅ | ✅ | ✅ |
| macos | ✅ |
要安装Pytorch 2.4.0的二进制文件,只需运行
pip install torch-scatter torch-sparse -f https://data.pyg.org/whl/torch-2.4.0+${CUDA}.html
${CUDA}应取代cpu , cu118 , cu121或cu124 ,具体取决于您的pytorch安装。
cpu | cu118 | cu121 | cu124 | |
|---|---|---|---|---|
| Linux | ✅ | ✅ | ✅ | ✅ |
| 视窗 | ✅ | ✅ | ✅ | ✅ |
| macos | ✅ |
Note: Binaries of older versions are also provided for PyTorch 1.4.0, PyTorch 1.5.0, PyTorch 1.6.0, PyTorch 1.7.0/1.7.1, PyTorch 1.8.0/1.8.1, PyTorch 1.9.0, PyTorch 1.10.0/1.10.1/1.10.2, PyTorch 1.11.0, PyTorch 1.12.0/1.12.1,Pytorch 1.13.0/1.13.1,Pytorch 2.0.0/2.0.1,Pytorch 2.1.0/2.1.1.1/2.1.2,Pytorch 2.2.0/2.2.1.2.1.2.1/2.2.2,以及Pytorch 2.3.0/2.3.0/2.3.0/2.3.1/2.3.1(遵循同一过程)。对于较旧的版本,您需要明确指定最新的支持版本号,或通过pip install --no-index安装,以防止源头安装手动安装。您可以在此处查找最新支持的版本号。
确保安装了至少Pytorch 1.7.0,并验证cuda/bin and cuda/include分别在您的$PATH和$CPATH中,例如:
$ python -c "import torch; print(torch.__version__)"
>>> 1.7.0
$ echo $PATH
>>> /usr/local/cuda/bin:...
$ echo $CPATH
>>> /usr/local/cuda/include:...
如果您想额外构建具有METIS支持的torch-sparse ,例如用于分区,请按照Install.txt文件中的说明下载并安装METIS库。请注意,METIS需要通过更改include/metis.h安装64个位IDXTYPEWIDTH 。之后, WITH_METIS=1设置环境变量。
然后运行:
pip install torch-scatter torch-sparse
当在没有NVIDIA驱动程序的Docker容器中运行时,Pytorch需要评估计算功能,并且可能会失败。在这种情况下,请确保通过TORCH_CUDA_ARCH_LIST设置计算功能,例如:
export TORCH_CUDA_ARCH_LIST="6.0 6.1 7.2+PTX 7.5+PTX"
torch_sparse.coalesce(index, value, m, n, op="add") -> (torch.LongTensor, torch.Tensor)
划分的index并删除重复的条目。重复的条目通过将它们散布在一起来删除。为了散射,可以使用torch_scatter的任何操作。
"add" ) import torch
from torch_sparse import coalesce
index = torch . tensor ([[ 1 , 0 , 1 , 0 , 2 , 1 ],
[ 0 , 1 , 1 , 1 , 0 , 0 ]])
value = torch . Tensor ([[ 1 , 2 ], [ 2 , 3 ], [ 3 , 4 ], [ 4 , 5 ], [ 5 , 6 ], [ 6 , 7 ]])
index , value = coalesce ( index , value , m = 3 , n = 2 ) print(index)
tensor([[0, 1, 1, 2],
[1, 0, 1, 0]])
print(value)
tensor([[6.0, 8.0],
[7.0, 9.0],
[3.0, 4.0],
[5.0, 6.0]])
torch_sparse.transpose(index, value, m, n) -> (torch.LongTensor, torch.Tensor)
稀疏基质的尺寸为0和1。
False ,则不会融合产出。 (默认: True ) import torch
from torch_sparse import transpose
index = torch . tensor ([[ 1 , 0 , 1 , 0 , 2 , 1 ],
[ 0 , 1 , 1 , 1 , 0 , 0 ]])
value = torch . Tensor ([[ 1 , 2 ], [ 2 , 3 ], [ 3 , 4 ], [ 4 , 5 ], [ 5 , 6 ], [ 6 , 7 ]])
index , value = transpose ( index , value , 3 , 2 ) print(index)
tensor([[0, 0, 1, 1],
[1, 2, 0, 1]])
print(value)
tensor([[7.0, 9.0],
[5.0, 6.0],
[6.0, 8.0],
[3.0, 4.0]])
torch_sparse.spmm(index, value, m, n, matrix) -> torch.Tensor
具有致密基质的稀疏基质的基质产物。
import torch
from torch_sparse import spmm
index = torch . tensor ([[ 0 , 0 , 1 , 2 , 2 ],
[ 0 , 2 , 1 , 0 , 1 ]])
value = torch . Tensor ([ 1 , 2 , 4 , 1 , 3 ])
matrix = torch . Tensor ([[ 1 , 4 ], [ 2 , 5 ], [ 3 , 6 ]])
out = spmm ( index , value , 3 , 3 , matrix ) print(out)
tensor([[7.0, 16.0],
[8.0, 20.0],
[7.0, 19.0]])
torch_sparse.spspmm(indexA, valueA, indexB, valueB, m, k, n) -> (torch.LongTensor, torch.Tensor)
两个稀疏张量的基质产物。两种输入稀疏矩阵都需要合并(使用coalesced属性来强制)。
True ,则将合并两个输入稀疏矩阵。 (默认: False ) import torch
from torch_sparse import spspmm
indexA = torch . tensor ([[ 0 , 0 , 1 , 2 , 2 ], [ 1 , 2 , 0 , 0 , 1 ]])
valueA = torch . Tensor ([ 1 , 2 , 3 , 4 , 5 ])
indexB = torch . tensor ([[ 0 , 2 ], [ 1 , 0 ]])
valueB = torch . Tensor ([ 2 , 4 ])
indexC , valueC = spspmm ( indexA , valueA , indexB , valueB , 3 , 3 , 2 ) print(indexC)
tensor([[0, 1, 2],
[0, 1, 1]])
print(valueC)
tensor([8.0, 6.0, 8.0])
pytest
torch-sparse还提供了一个C ++ API,其中包含C ++等效的Python模型。为此,我们需要将TorchLib添加到-DCMAKE_PREFIX_PATH (例如,它可能存在于{CONDA}/lib/python{XX}/site-packages/torch中,如果通过conda安装):
mkdir build
cd build
# Add -DWITH_CUDA=on support for CUDA support
cmake -DCMAKE_PREFIX_PATH="..." ..
make
make install