TKIPF/GCN,在Tensorflow中實現圖卷積網絡,
TKIPF/KERAS-GCN,圖形卷積網絡的KERAS實現,
OceChain/GCN,圖形卷積網絡,
PETARV-/GAT,圖形注意網絡(https://arxiv.org/abs/1710.10903),
Diego999/Pygat,Veličković等人的圖形注意網絡模型的Pytorch實現。 AL(2017,https://arxiv.org/abs/1710.10903),
MP2893/克,基於圖的注意模型,
Danielegrattarola/Keras-Gat,Veličković等人的圖形注意網絡(GAT)的KERAS實施。 (2017; https://arxiv.org/abs/1710.10903),
Luckick/EAGCN,基於Edge注意的多個關係圖卷積網絡的實現,
TKIPF/關係-GCN,基於KERAS的關係圖形卷積網絡的實現
1049451037/GCN-Align,本文代碼:通過圖形卷積網絡的跨語性知識圖對齊。
Michschli/關係預測,實施R-GCN用於關係鏈接預測
Xiangwang1223/knowledge_graph_attention_network,kgat:知識圖專注網絡推薦網絡,KDD2019,
Deepakn97/關係prediction,ACL 2019:學習基於注意力的嵌入,用於知識圖中的關係預測,
QIPENG/GCN跨性樹,修剪依賴樹的圖形卷積改善了關係提取(作者的Pytorch實現),
Malllabiisc/居住,EMNLP 2018:居住:使用側面信息改善遙遠監督的神經關係提取,
CARTUS/AGGCN_TACRED,注意指導的圖形卷積網絡用於關係提取(作者的Pytorch實施ACL19紙),
yao8839836/text_gcn,用於文本分類的圖形卷積網絡。 AAAI 2019,
yuanluo/text_gcn_tutorial,本教程(目前正在開發)基於我們的論文中的文本GCN的實現:Liang Yao,Yuan Luo的Chengsheng Mao。 “用於文本分類的圖形卷積網絡。”在第33屆AAAI人工智能會議(AAAI-19)中,
plkmo/bible_text_gcn,基於文本的圖形卷積網絡,
Iamjagdeesh/Fake-News檢測,使用BERT和GRAPH注意網絡(GAT),Fake News探測器,基於與之關聯的用戶。
JX-ZHONG-ACADEMICPOSE-PURPOSE/GCN-ANOMALY檢測,CVPR源代碼的佔位符:2019年的源代碼:圖形卷積標籤噪聲清潔器:訓練插件和播放動作分類器以進行異常檢測。
KAIZE0409/GCN_ANOMALYDETECTION,用於歸因網絡的深度異常檢測代碼(SDM2019)。
方Dao/gcn_clustering,CVPR'19紙鏈接的代碼通過GCN,基於紙質鏈接的面部聚類,
YL-1993/Learn-to-to-Cluster,學習在親和力圖上群集面孔(CVPR 2019),
Chenzhaomin123/ML_GCN,具有圖形卷積網絡的多標籤圖像識別的Pytorch實現,CVPR 2019,
Rusty1s/基於圖的圖像分類,在Tensorflow中實現平面圖卷積網絡,
Avirambh/MSDNET-GCN,ICLR 2018可重複性挑戰 - 多尺度密集的捲積網絡,用於有效預測,
Judyye/Zero-Shot-GCN,與GCN一起零射學習(CVPR 2018),
NVIDIA/CONTRASTIVELOSSES4VRD,CVPR2019紙的實現“場景圖生成的圖形對比損失”,
YUWEIHAO/KERN,FOSICE GRAPH GENTRANTION知識插入路由網絡的代碼(CVPR 2019),
shijx12/xnm-net,pytorch實現“場景圖上的可解釋和明確的視覺推理”,
jiayan97/linknet-pytorch,linknet的pytorch for場景圖生成,
UEHWAN/3D-SCENE-GRAPH,3D場景圖生成器,在Pytorch。
Kenneth-wong/castengraph_mem,CVPR 2019代碼:探索場景圖生成的上下文和視覺模式,Wenbin Wang,Ruiping Wang,Shiguang Shan,Shiguang Shan,Xilin Chen,CVPR 2019.,2019年。
danfeix/scene-graph-tf-release,“迭代消息傳遞的場景圖生成”代碼存儲庫http://cs.stanford.edu/~danfei/~danfei/scene--,
Google/sg2im,“場景圖生成圖像生成”的代碼,Johnson等,CVPR 2018,
Rowanz/Neural-Motifs,神經圖案的代碼:帶有全球環境的場景圖解析(CVPR 2018)https://rowanzellers.com/neuralmotifs,
jwyang/graph-rcnn.pytorch,我們的eccv 2018紙張“圖形R-CNN場景圖生成”和其他論文的Pytorch代碼,
yikang-li/factorizablenet,可取分的淨(多GPU版本):一個有效的基於子圖的場景圖生成框架,
Lehaifeng/T-GCN,城市交通流預測方法的時間圖卷積網絡
Franceszhou/gcntrafficprediction,
Davidham3/ASTGCN,基於注意的時空圖形卷積網絡,用於交通流量預測(ASTGCN)AAAI 2019,
zhenye-na/gcn-spp,使用圖形卷積網絡的最短路徑預測,
raphaelavalos/activation_tsp_graph_net,注意力的實現解決了您的TSP,大約(W。Kool等人)用DeepMind的Graph Nets庫,
Maggie0106/Graph-CNN-IN-IN-3D點雲分類,用於3D點雲分類的圖形CNN的代碼(ICASSP 2018),
Jiexiong2016/gcnv2_slam,具有深度功能的實時大滿貫系統,
wngzhiqi/graph2seq-graph-to-sequaph-to-sequence-loceence-enterning基於注意的神經網絡,該回購是CMU的11785(深度學習)項目。我們正在再現稱為“ Graph2Seq:Graph至序列學習的序列學習的論文”(https://arxiv.org/pdf/1804.00823.pdf)。團隊成員:Zhiqi Wang,Ziyin Huang,Hong Du,Zhengkai Zhang,
Syxu828/graph2seq-0.1,這是紙質“ Graph2Seq:Graph:Graph to to Gragh to sequence Learning tater Ickition Neural Networks”的代碼,