根据我们的调查文件:图表上的大语言模型:一项全面的调查,策划了有关大语言模型(LLM)的论文和资源清单。
关于图表上多模式学习的令人敬畏的回购,请在此处找到。
此存储库将不断更新。不要忘记出演它并继续调用!
如果您发现资源对研究有帮助,请引用该论文。谢谢!
大型语言模型(LLMS),例如Chatgpt和Llama,由于其强大的文本编码/解码能力以及新发现的新兴能力(例如,推理),因此在自然语言处理方面创造了重大进步。尽管LLM的设计主要是为了处理纯文本,但在许多真实世界的情况下,文本数据与图形形式(例如,学术网络和电子商务网络)的丰富结构信息相关联或图形数据,其中图形数据与丰富的文本信息(例如,分子与描述)相关。此外,尽管LLM已显示出其纯粹的基于文本的推理能力,但是否可以将这种能力推广到图形方案(即,基于图形的推理)尚未得到充满信心。在本文中,我们对与图形上的大型语言模型相关的方案和技术进行了全面的综述。
工作中使用的变压器体系结构,例如,encoderonly,decoderonly,encoderDecoder。
大语言模型的大小,例如,介质(IE,小于1B参数),LLM(即,超过1B参数)。
统一大型语言模型和知识图:路线图。 preprint
Shirui Pan,Linhao Luo,Yufei Wang,Chen Chen,Jiapu Wang,Xindong Wu [PDF],2023.6
将图与大型语言模型集成:方法和前景preprint
Shirui Pan,Yizhen Zheng,Yixin Liu [PDF],2023.10
迈向图基础模型:调查及其他。 preprint
Jiawei Liu,Cheng Yang,Zhiyuan Lu,Junze Chen,Yibo Li,Mengmei Zhang,Ting Bai,Yuan Fang,Lichao Sun,Philip S. Yu,Chuan Shi。 [PDF],2023.10
图表的调查符合大型语言模型:进度和未来方向。 preprint
Yuhan Li,Zhixun Li,Peisong Wang,Jia Li,Xiangguo Sun,Hong Cheng,Jeffrey Xu Yu。 [PDF],2023.11
表3在我们的调查论文中,图形上的大语言模型:全面的调查。
直接回答
语言模型可以解决自然语言的图形问题吗? preprint
Heng Wang,Shangbin Feng,Tianxing HE,Zhaoxuan Tan,Xioochuang Han,Yulia Tsvetkov。 [PDF] [代码],2023.5,
GPT4Graph:大语言模型可以理解图形结构化数据吗?经验评估和基准测试。 preprint
Jiayan Guo,Lun Du,Hengyu Liu,Mengyu Zhou,Xinyi He,Shi Han。 [PDF],2023.5,
在图表上评估大型语言模型:绩效见解和比较分析。 preprint
Chang Liu,Bo Wu。 [PDF] [Code],2023.8,[PDF],2023.5,
像图形一样说话:编码大型语言模型的图形。 preprint
Bahare Fatemi,Jonathan Halcrow,Bryan Perozzi。 [PDF],2023.10,
Graphllm:提高大语模型的图形推理能力。 preprint
Ziwei Chai,Tianjie Zhang,Liang Wu,Kaiqiao Han,Xiaohai Hu,Xuanwen Huang,Yang Yang Yang Yang。 [PDF] [代码],2023.10,
LLM4DYG:大型语言模型可以在动态图上解决问题吗? preprint
Zeyang Zhang,Xin Wang,Ziwei Zhang,Haoyang Li,Yijian Qin,Simin Wu,Wenwu Zhu [PDF] [Code],2023.10,
我应该使用哪种方式 - 文本,主题或图像? :使用大语言模型了解图。 preprint
Debarati Das,Ishaan Gupta,Jaideep Srivastava,Dongyeop Kang [PDF] [Code],2023.11,
GraphArena:在图计算问题上对大语言模型进行基准测试。 preprint
Jianheng Tang,Qifan Zhang,Yuhan Li,Jia Li [PDF] [Code],2024.7,
LLMS幻觉图也:结构性的观点。 preprint
Erwan Le Merrer,Gilles Tredan [PDF],2024.9,
结构争夺:大型语言模型的一般框架来推理结构化数据。 preprint
Jinhao Jiang,Kun Zhou,Zican Dong,Keming Ye,Wayne Xin Zhao,Ji-Rong Wen。 [PDF] [代码],2023.5,
思想掌握:知识图上大语言模型的深层和负责任的推理。 preprint
Jiashuo Sun,Chengjin Xu,Lumingyuan Tang,Saizhuo Wang,Chen Lin,Yeyun Gong,Lionel M. Ni,Heung-Yeung Shum,Jian Guo。 [PDF] [代码],2023.7,
探索大型语言模型以在线工作建议中的图形数据理解。 preprint
Likang Wu,Zhaopeng Qiu,Zhi Zheng,Hengshu Zhu,Engong Chen。 [PDF] [代码],2023.7,
知识图提示了多文件问题回答。 AAAI2024
Yu Wang,Nedim Lipka,Ryan Rossi,Alex Siu,Ruiyi Zhang,Tyler Derr。 [PDF] [代码],2023.8,
Chatrule:使用大语言模型的挖掘逻辑规则用于知识图理论。 preprint
Linhao Luo,Jiaxin JU,Bo Xiong,Yuan-Fang Li,Gholamreza Haffari,Shirui Pan。 [PDF] [代码],2023.9,
图表上的推理:忠实且可解释的大语言模型推理。 preprint
Linhao Luo,Yuan-Fang Li,Gholamreza Haffari,Shirui Pan。 [PDF] [代码],2023.10,
思想传播:一种与大语言模型进行复杂推理的类似方法。 preprint
Junchi Yu,跑了,雷克斯·杨。 [PDF],2023.10,
大型语言模型可以学习时间推理。 preprint
Siheng Xiong,Ali Payani,Ramana Kompella,Faramarz Fekri。 [PDF],2024.1,
探索大语言模型中图形推理的局限性。 preprint
Palaash Agrawal,Shavak Vasania,Cheston Tan。 [PDF],2024.2,
在多模式大语言模型中用于图形推理的图形。 preprint
Yanbin Wei,Shuai Fu,Weisen Jiang,James T. Kwok,Yu Zhang。 [PDF],2024.2,
异步计划推理中的图形增强大型语言模型。 preprint
Fangru Lin,Emanuele La Malfa,Valentin Hofmann,Elle Michelle Yang,Anthony Cohn,Janet B. Pierrehumbert。 [PDF],2024.2,
大语言模型的微观结构和图形回忆的准确性。 preprint
Yanbang Wang,Hejie Cui,Jon Kleinberg。 [PDF],2024.2,
结构引导提示:通过探索文本的图形结构来指导多步推理中的大语言模型。 preprint
Kewei Cheng,Nesreen K. Ahmed,Theodore Willke,Yizhou Sun。 [PDF],2024.2,
基础结构:具有图形理解和推理能力的大型语言模型。 preprint
Zihan Luo,Xiran Song,Hong Huang,Jianxun Lian,Chenhao Zhang,Jinqi Jiang,Xing Xie,Hai Jin。 [PDF],2024.3,
必要时给我打电话:LLM可以有效而忠实地推理结构化的环境。 preprint
Sitao Cheng,Ziyuan Zhuang,Yong Xu,Fangkai Yang,Chaoyun Zhang,Xiaoting Qin,Xiang Huang,Ling Chen,Qingwei Lin,Dongmei Zhang,Saravan Zhang,Saravan Rajmohan,Qi Zhang,Qi Zhang。 [PDF],2024.3,
探索大语模型在图生成中的潜力。 preprint
杨Yao,Xin Wang,Zeyang Zhang,Yijian Qin,Ziwei Zhang,Xu Chu,Yuekui Yang,Wenwu Zhu,Hong Mei。 [PDF],2024.3,
GearpinIght:在大语言模型中解锁见解,以了解图形结构。 preprint
Yukun Cao,Shuo Han,Zengyi Gao,Zezhong Ding,Xike Xie,S.Kevin Zhou。 [PDF],2024.5,
大型语言模型可以分析专业人士等图形吗?基准,数据集和模型。 NeurIPS 2024
Xin Li,Weize Chen,Qizhi Chu,Haopeng Li,Zhaojun Sun,Ran Li,Chen Qian,Yiwei Wei,Zhiyuan Liu,Chuan Shi,Maosong Sun,Cheng Yang。 [PDF] [代码] [模型和数据集],2024.9,,
图形线性化方法用于具有大语言模型的图表上的推理。 preprint
Christos Xypolopoulos,Guokan Shang,Xiao Fei,Giannis Nikolentzos,Hadi Abdine,Iakovos Evdaimon,Michail Chatzianastasis,Giorgos Stamou,Michalis vazirgiannis。 [PDF],2024.10,
GRS-QA-图形结构化问题回答数据集。 preprint
Anish Pahilajani,Devasha Trivedi,Jincen Shuai,Khin S. Yone,Samyak Rajesh Jain,Namyong Park,Ryan A. Rossi,Nesreen K. Ahmed,Franck Dernoncourt,Yu Wang。 [PDF],2024.11,
图形-Toolformer:通过CHATGPT提示增强图形推理能力的LLM能力。 preprint
Jiawei Zhang。 [PDF] [代码],2023.4,
图链:通过在图形上进行推理来增强大语言模型。 preprint
Bowen Jin,Chulin Xie,Jiawei Zhang,Kashob Kumar Roy,Yu Zhang,Suhang Wang,Yu Meng,Jiawei Han。 [PDF] [代码] [数据],2024.4,
从本地到全局:一种以查询为中心的摘要的图形抹布方法。 preprint
Darren Edge,Ha Trinh,Newman Cheng,Joshua Bradley,Alex Chao,Apurva Mody,Steven Truitt,Jonathan Larson。 [PDF],2024.4,
大语模型是否图形算法推理器? preprint
亚历山大·K·泰勒(Alexander K Taylor),安东尼·卡特鲁弗(Anthony Cuturrofo),维沙尔·耶西什(Vishal Yathish),mingyu derek ma,wei wang。 [PDF] [代码],2024.10,
表7在我们的调查论文中,图形上的大语言模型:全面的调查。
llm作为预测变量(节点)
匹配:大型层次结构中的元数据感知文本分类。 WWW 2021
Zhang,Zhihong Shen,Yuxiao Dong,Kuansan Wang,Jiawei Han。 [PDF] [代码],2021.2,
QA-GNN:使用语言模型和知识图的推理,以回答问题。 NAACL 2021
Michihiro Yasunaga,Hongyu Ren,Antoine Bosselut,Percy Liang,Jure Leskovec。 [PDF] [代码],2021.4,
自然语言都是图形需求。 preprint
Ruosong Ye,Caiqi Zhang,Runhui Wang,Shuyuan Xu,Yongfeng Zhang。 [PDF],2023.8,
LLM可以有效利用图形结构信息:何时何地。 preprint
Jin Huang,Xingjian Zhang,Qiaozhu Mei,Jiaqi MA。 [PDF] [代码],2023.9,
图形神经提示使用大型语言模型。 preprint
Yijun Tian,Huan Song,Zichen Wang,Haozhu Wang,Ziqing Hu,Fang Wang,Nitesh V. Chawla,Panpan Xu。 [PDF],2023.9,
基于及时的节点提取器,用于在文本属性图上进行几次学习。 preprint
Xuanwen Huang,Kaiqiao Han,Dezheng Bao,Quanjin Tao,Zhisheng Zhang,Yang Yang Yang,Qi Zhu。 [PDF],2023.9,,
GraphText:文本空间中的图形推理。 preprint
Jianan Zhao,Le Zhuo,Yikang Shen,Meng Qu,Kai Liu,Michael Bronstein,Zhaocheng Zhu,Jian Tang [PDF],2023.10,
GraphGpt:大型语言模型的图形指令调整。 preprint
Jiabin Tang,Yuhao Yang,Wei Wei,Lei Shi,Lixin SU,Suqi Cheng,Dawei Yin,Chao Huang。 [PDF],2023.10,
使用一个文本编码器在文本富裕网络上学习多重嵌入。 preprint
Bowen Jin,Winao Zhang,Yu Zhang,Yu Meng,Han Zhao,Jiawei Han。 [PDF] [代码],2023.10,
通过大型语言模型进行文本归属图的大型语言模型学习。 preprint
Yijian Qin,Xin Wang,Ziwei Zhang,Wenwu Zhu。 [PDF],2023.10,
推理:在预训练的语言模型中启用结构子图推理,以回答知识图。 EMNLP23
Jinhao Jiang,Kun Zhou,Wayne Xin Zhao,Yaliang Li,Ji-Rong Wen。 [PDF],2023.12,
历史链:与LLM的学习和预测有关时间知识图的完成。 preprint
Ruilin Luo,Tianle Gu,Haoling Li,Junzhe Li,Zicheng Lin,Jiayi Li,Yujiu Yang。 [PDF] [代码],2024.1,
具有大型语言模型的大规模异构图上的可扩展链路预测。 preprint
Baolong Bi,Shenghua Liu,Yiwei Wang,Lingrui Mei,Xueqi Chen。 [PDF],2024.1,
基于相似性的邻居选择图形LLMS。 preprint
Rui Li,Jiwei Li,Jiawei Han,Guoyin Wang。 [PDF],2024.2,
让您的图表进行谈话:编码LLM的结构化数据。 preprint
Bryan Perozzi,Bahare Fatemi,Dustin Zelle,Anton Tsitsulin,Mehran Kazemi,Rami al-Rfou,Jonathan Halcrow。 [PDF],2024.2,
指导图:通过以图形为中心的指令调整和偏好对齐来增强大型语言模型。 preprint
Jianing Wang,Junda Wu,Yupeng Hou,Yao Liu,Ming Gao,Julian McAuley。 [PDF],2024.2,
图形神经网络增强了检索,以回答LLM的问题。 preprint
Zijian Li,Qingyan Guo,Jiawei Shao,Lei Song,Jiang Bian,Jun Zhang,Rui Wang。 [PDF],2024.6,
llms作为零拍图学习者:与LLM令牌嵌入的GNN表示的对齐。 preprint
Duo Wang,Yuan Zuo,Fengzhi Li,Junjie Wu。 [PDF],2024.8,
带有图形变压器的知识图的文本生成。 NAACL 2019
Rik Koncel-Kedziorski,Dhanush Bekal,Yi Luan,Mirella Lapata,Hannaneh Hajishirzi。 [PDF] [代码],2019.4,
GraphFormers:用于在文本图上进行表示的GNN-NEST变形金刚。 NeurIPs 2021
Junhan Yang,Zheng Liu,Shitao Xiao,Chaozhuo Li,Defu Lian,Sanjay Agrawal,Amit Singh,Guangzhong Sun,Xing Xie。 [PDF] [代码],2021.5,
Greaselm:图形推理增强的语言模型,以回答。 ICLR 2022
Xikun Zhang,Antoine Bosselut,Michihiro Yasunaga,Hongyu Ren,Percy Liang,Christopher D Manning和Jure Leskovec。 [PDF] [代码],2022.1,
异源:基于变压器的深度节点表示在异质文本丰富的网络上学习。 KDD 2023
Bowen Jin,Yu Zhang,Qi Zhu,Jiawei Han。 [PDF] [代码],2022.5,
隐藏的模式网络。 preprint
RamsésJ。Sánchez,Lukas Conrads,Pascal Welke,Kostadin Cvejoski,CésarOjeda。 [PDF],2022.7,
龙:深度双向语言知识图。 NeurIPs 2022
Michihiro Yasunaga,Antoine Bosselut,Hongyu Ren,Xikun Zhang,Christopher D. Manning,Percy Liang,Jure Leskovec。 [PDF] [代码],2022.10,
EdgeFormers:用于在文本边缘网络上表示的表示图形的变压器。 ICLR 2023
Bowen Jin,Yu Zhang,Yu Meng,Jiawei Han。 [PDF] [代码],2023.1,
Patton:在文本丰富的网络上预处理语言模型。 ACL 2023
Bowen Jin,Winao Zhang,Yu Zhang,Yu Meng,Xinyang Zhang,Qi Zhu,Jiawei Han。 [PDF] [代码],2023.5,
图形语言模型。 preprint
莫里茨·普伦茨(Moritz Plenz),安妮特·弗兰克(Anette Frank)。 [PDF],2024.1,
在文本图上对大型语言模型的有效调整和推断。 preprint
Yun Zhu,Yaoke Wang,Haizhou Shi,Siliang Tang。 [PDF],2024.1,
Hyperbert:将超图感知层与文本属性超图上的节点分类的语言模型混合。 preprint
AdriánBazaga,PietroLiò,Gos Micklem。 [PDF],2024.2,
将LLM的功率释放为文本和图形结构数据的多模式编码器。 preprint
Jicheng Lin,Kun Qian,Haoyu Han,Nurendra Choudhary,Tianxin Wei,Zhongruo Wang,Sahika Genc,Edward W Huang,Sheng Wang,Karthik Subbian,Danai Koutra,Jimeng Sun.,Jimeng Sun. [PDF],2024.10,
解释科学文件之间的关系。 ACL 2021
Kelvin Luu,Xinyi Wu,Rik Koncel-Kedziorski,Kyle LO,Isabel Cachola,Noah A. Smith。 [PDF],2020.2,
幽灵:使用引用信息变压器的文档级表示学习。 ACL 2020
Arman Cohan,Sergey Feldman,Iz Beltagy,Doug Downey,Daniel S. Weld。 [PDF],2020.4,
临时检索的预培训:您也需要超链接。 CIKM 2021
Zhengyi MA,Zhicheng Dou,Wei Xu,Xinyu Zhang,Hao Jiang,Zhao Cao,Ji-Rong Wen。 [PDF] [代码],2021.8,
带有引文嵌入的科学文档表示的邻里对比学习。 EMNLP 2022
Malte Ostendorff,Nils Rethmeier,Isabelle Augenstein,Bela Gipp,Georg Rehm。 [PDF] [代码],2022.2,
元数据诱导的对比度学习,用于零拍的多标签文本分类。 WWW 2022
Zhang,Zhihong Shen,Chieh-Han Wu,Boya Xie,Junheng Hao,Ye-Yi Wang,Kuansan Wang,Jiawei Han。 [PDF] [代码],2022.2,
Linkbert:带有文档链接的语言预测模型。 ACL 2022
Michihiro Yasunaga,Jure Leskovec,Percy Liang。 [PDF] [代码],2022.3,
E2EG:使用图形拓扑和基于文本的节点属性的端到端节点分类。 ICDM 2023
Tu Anh Dinh,Jeroen Den Boef,Joran Cornelisse,Paul Groth。 [PDF],2022.8,
Twhin-Bert:在Twitter上用于多语言推文表示的一种具有社会增益的预训练的语言模型。 KDD 2023
Xinyang Zhang,Yury Malkov,Omar Florez,Serim Park,Brian McWilliams,Jiawei Han,Ahmed El-Kishky。 [PDF] [代码],2022.9,
TouchUp-G:通过以图形为中心的登录改进功能表示。 preprint
Jing Zhu,Xiang Song,Vassilis N. Ioannidis,Danai Koutra,Christos Falutsos。 [PDF],2023.9,
Wikiformer:Wikipedia的结构化信息进行培训,以进行临时检索。 preprint
Weihang Su,Qingyao ai,Xiangsheng Li,Jia Chen,Yiqun Liu,Xiaolong Wu,Shengluan Hou。 [PDF],2023.12,
WalkLM:用于归因图嵌入的统一语言模型微调框架。 NeurIPs 2023
Yanchao Tan,Zihao Zhou,Hang LV,Weiming Liu,Carl Yang。 [PDF],2023.12,
Glam:通过邻里分区和生成子图编码的微型语言模型用于域知识图形对齐。 AAAI 2024
Stefan Dernbach,Khushbu Agarwal,Alejandro Zuniga,Michael Henry,Sutanay Choudhury。 [PDF],2024.2,
UNIGLM:培训一种统一的语言模型,以供文本归属图。 preprint 2024
Yi Fang,Dongzhe粉丝,Sirui Ding,Ninghao Liu,Qiaoyu tan。 [PDF],2024.6,
GNN-LM:基于GNN的全局上下文的语言建模。 ICLR 2022
Yuxian Meng,Shi Zong,Xiaoya Li,Xiaofei Sun,Tianwei Zhang,Fei Wu,Jiwei li。 [PDF] [代码],2021.10,
节点特征通过自我监督的多尺度邻域预测提取。 ICLR 2022
Eli Chien,Wei-Cheng Chang,Cho-Jui Hsieh,Hsiang-Fu Yu,Jiong Zhang,Olgica Milenkovic,Inderjit S Dhillon。 [PDF] [代码],2021.11,
TextGnn:通过Graph Neural网络在赞助搜索中改进文本编码器。 WWW 2021
Jason Yue Zhu,Yanling Cui,Yuming Liu,Hao Sun,Xue Li,Markus Pelger,Tianqi Yang,Liangjie Zhang,Ruofei Zhang,Huasha Zhao。 [PDF] [代码],2022.1
ADSGNN:在赞助搜索中,行为图增强了相关性建模。 SIGIR 2021
Chaozhuo Li,Bochen Pang,Yuming Liu,Hao Sun,Zheng Liu,Xing Xie,Tianqi Yang,Yanling Cui,Liangjie Zhang,Qi Zhang。 [PDF] [代码],2022.4
语言和图形神经网络模型的有效培训。 AAAI 2023
Vassilis N Ioannidis,Xiang Song,Da Zheng,Houyu Zhang,Jun Ma,Yi Xu,Belinda Zeng,Trishul Chilimbi,George Karypis。 [PDF],2022.6,
大图语料库上的图形语言模型预训练可以帮助多个图形应用程序。 KDD 2023
Han Xie,Da Zheng,Jun Ma,Houyu Zhang,Vassilis N. Ioannidis,Xiang Song,Qing Ping,Sheng Wang,Carl Yang,Yi Xu,Belinda Zeng,Trishul Chilimbi。 [PDF],2023.6,
探索大语模型(LLM)在图形上学习的潜力。 preprint
Zhikai Chen,Haitao Mao,Hang Li,Wei Jin,Hongzhi Wen,Xioochi Wei,Shuaiqiang Wang,Dawei Yin,Wenqi Fan,Hui Liu,Jiliang Tang。 [PDF] [代码],2023.7,
Simteg:一种令人沮丧的简单方法可改善文本图学习。 preprint
Keyu Duan,Qian Liu,Tat-Seng Chua,Shuicheng Yan,Wei Tsang ooi,Qizhe Xie,Junxian He。 [PDF] [代码],2023.8,
作为特征的解释:基于LLM的文本属性图。 preprint
Xiaoxin He,Xavier Bresson,Thomas Laurent,Adam Perold,Yann Lecun,Bryan Hooi。 [PDF] [代码],2023.5,
具有大语言模型(LLMS)的图表上的无标签节点分类。 preprint
Zhikai Chen,Haitao Mao,Hongzhi Wen,Haoyu Han,Wei Jin,Haiyang Zhang,Hui Liu,Jiliang Tang。 [PDF],2023.9,
使用大语言模型(LLM)授权文本属性的图形学习。 preprint
Jianxiang Yu,Yuxiang Ren,Chenghua Gong,Jiaqi Tan,Xiang Li,Xuecang Zhang。 [PDF],2023.10,
大型语言模型作为拓扑结构增强器,用于文本归属图。 preprint
Shengyin Sun,Yuxiang Ren,Chen MA,Xuecang Zhang。 [PDF],2023.11,
一项关于文本属性图的综合研究:基准测试和重新思考。 NeurIPS 2023
Hao Yan, Chaozhuo Li, Ruosong Long, Chao Yan, Jianan Zhao, Wenwen Zhuang, Jun Yin, Peiyan Zhang, Weihao Han, Hao Sun, Weiwei Deng, Qi Zhang, Lichao Sun, Xing Xie, Senzhang Wang [PDF] [Code], 2023.11,
从大语言模型中提取事件序列知识。 preprint
Somin Wadhwa,Oktie Hassanzadeh,Debarun Bhattacharjya,Ken Barker,Jian Ni。 [PDF],2024.1,
别忘了连接!通过基于图的重新依据改善抹布。 preprint
Jialin Dong,Bahare Fatemi,Bryan Perozzi,Lin F. Yang,Anton Tsitsulin。 [PDF],2024.5,
仪表:使用大语言模型KDD 2024文本归属图的图形对比度学习
Yi Fang,Dongzhe粉丝,Daochen Zha,Qiaoyu Tan。 [PDF],2024.5,
训练自己的GNN老师:文本图上的图形感知蒸馏。 PKDD 2023
C. Mavromatis,Vn Ioannidis,S。Wang,D。Zheng,S。Adeshina,J。Ma,H。Zhao,C。Faloutsos,G。Karypis。 [PDF],2023.4,
有效的大型语言模型在图表上进行微调。 preprint
Rui Xue,Xipeng Shen,Ruozhou Yu,Xiaorui Liu。 [PDF],2023.12,
提炼大型语言模型,以进行文本归类的图形学习。 preprint
Bo Pan,Zheng Zhang,Yifei Zhang,Yuntong Hu,Liang Zhao。 [PDF],2024.2,
参数有效调整大型语言模型,用于图表学习。 preprint
Qi Zhu,Da Zheng,Xiang Song,Shichang Zhang,Bowen Jin,Yizhou Sun,George Karypis。 [PDF],2024.4,
在文本属性图中桥接本地细节和全局上下文。 preprint
Yaoke Wang,Yun Zhu,Wenqiao Zhang,Yueting Zhuang,Yunfei Li,Siliang Tang。 [PDF],2024.6,
图形语言模型。 ACL 2024
莫里茨·普伦茨(Moritz Plenz),安妮特·弗兰克(Anette Frank)。 [PDF] [代码],2024.1,
通过在文本丰富的网络上学习,最小化的结构富含文本分类。 WWW 2021
Xinyang Zhang,Chenwei Zhang,Luna Xin Dong,Jingbo Shang,Jiawei Han。 [PDF] [代码],2021.2,
通过变异推断学习大规模的文本属性图。 ICLR 2023
Jianan Zhao,Meng Qu,Chaozhuo Li,Hao Yan,Qian Liu,Rui Li,Xing Xie,Jian Tang。 [PDF] [代码],2023.1,
恭喜:关节图和文本嵌入的自我监督对比预处理。 preprint
William Brannon,Suyash Fulay,Hang Jiang,Wonjune Kang,Brandon Roy,Jad Kabbara,Deb Roy。 [PDF] [代码],2023.5,
通过图形的预训练和提示来增强低资源文本分类。 SIGIR 2023
Zhihao Wen,Yuan Fang。 [PDF],2023.5,
手榴弹:以图形为中心的语言模型,用于在文本属性图上学习学习。 EMNLP 2023
Yichuan Li,Kaize Ding,Kyumin Lee。 [PDF] [代码],2023.10,
具有文本归属的异质图的训练语言模型。 preprint
陶祖,勒·尤,杨黄,利利·孙,鲍恩·杜。 [PDF] [代码],2023.10,
表8在我们的调查论文中,图表上的大语言模型:全面的调查。
llm作为预测变量(图)
Smiles-Bert:大规模无监督的分子特性预测预测BCB 19
Sheng Wang,Yuzhi Guo,Yuhong Wang,Hongmao Sun,Junzhou Huang [PDF] [Code],2019.09,
Molgpt:使用变压器描述器模型的分子生成。 Journal of Chemical Information and Modeling
Viraj Bagal,Rishal Aggarwal,PK Vinod和U. Deva Priyakumar [PDF] [Code],2021.10 ,,,,,,,,,,,,,,,,,,,,,。
深度学习的系统桥接分子结构和生物医学文本,具有与人类专业人士相当的理解。 Nature Communications
Zheni Zeng,Yuan Yao,Zhiyuan Liu,Maosong Sun [PDF] [Code],2022.02,
化学形式:计算化学机器学习的预训练的变压器Machine Learning: Science and Technology
Ross Irwin,Spyridon Dimitriadis,Jiazhen He和Esben Jannik Bjerrum [PDF] [Code],2022.02,
用于化学指纹识别的变压器的大规模分布训练。 Journal of Chemical Information and Modeling
Hisham Abdel-Aty,Ian R. Gould [PDF] [Code],2022.06,
Galactica:科学Preprint的大型语言模型
Ross Taylor,Marcin Kardas,Guillem Cucurull,Thomas Scialom,Anthony Hartshorn,Elvis Saravia,Andrew Poulton,Viktor Kerkez,Robert Stojnic [PDF] [Code],2022.11,2022.11,,2022.11,,
分子与自然语言之间的翻译。 EMNLP 2022
卡尔·爱德华兹(Carl Edwards),图安·莱(Tuan Lai),凯文·罗斯(Kevin Ros),加勒特·霍克(Garrett Honke),kyunghyun cho,heng ji。 [PDF] [代码],2022.12,
通过多任务语言建模ICML 2023统一分子和文本表示
Dimitrios Christofidellis,Giorgio Giannone,Jannis Born,Ole Winther,Teodoro Laino,Matteo Manica [PDF] [Code],2023.05,
大型语言模型可以在化学方面做什么?八个任务的全面基准。 NeurIPS 2023
Taicheng Guo,Kehan Guo,Bozhao Nan,Zhenwen Liang,Zhichun Guo,Nitesh V. Chawla,Olaf Wiest,Xiangliang Zhang [pdf] [code],2023.9,2023.9,,,
molxpt:用文本包裹分子进行生成预训练。 ACL 2023
Zequn Liu,Wei Zhang,Yingce Xia,Lijun Wu,Shufang Xie,Tao Qin,Ming Zhang,Tie-Yan Liu。 [PDF],2023.05,
与自然语言preprint互动分子发现
Zheni Zeng,Bangchen Yin,Shipeng Wang,Jiarui Liu,Cheng Yang,Haishen Yao,Xingzhi Sun,Maosong Sun,Gootong Xie,Gootong Xie,Zhiyuan Liu。 [PDF] [代码],2023.06,
具有大语言模型的分子捕获翻译的授权分子发现:chatgpt透视preprint
Jiatong Li,Yunqing Liu,Wenqi Fan,Xiao-Yong Wei,Hui Liu,Jiliang Tang,Qing Li。 [PDF],2023.06,[代码],
回归变压器启用并发序列回归和分子语言建模的生成Nature Machine Intelligence
Jannis Born,Matteo Manica [PDF] [Code],2023.6,,,,
大语言模型可以赋予分子财产预测能力吗? preprint
Chen Qian,Huayi Tang,Zhirui Yang,Hong Liang,Yong Liu。 [PDF] [代码],2023.7,
摩尔教学:大型大型分子指令数据集的大型语言模型preprint
Yin Fang,Xiaozhuan Liang,Ningyu Zhang,Kangwei Liu,Rui Huang,Zhuo Chen,Xiaohui Fan,Huajun Chen [PDF],2023.07,,
GPT-Molberta:GPT分子特征分子特性预测的语言模型。 preprint
Balaji,Suryanarayanan,Rishikesh Magar和Yayati Jadhav。 [PDF],2023.10,
大型语言模型对科学发现的影响:使用GPT-4的初步研究。 preprint
Microsoft Research AI4Science,Microsoft Azure Quantum [PDF],2023.11,
迈向语言模型中的3D分子文本解释ICLR 2024
Sihang Li,Zhiyuan Liu,Yanchen Luo,Xiang Wang,Xiangnan He,Kenji Kawaguchi,Tat-Seng Chua,Qi Tian。 [PDF],2024.1,
MOLTC:在语言模型中迈向分子关系preprint
Junfeng Fang,Shuai Zhang,Chang Wu,Zhengyi Yang,Zhiyuan Liu,Sihang Li,Kun Wang,Wenjie du,Xiang Wang。 [PDF],2024.2,
大型语言模型是封闭式分子学习者preprint
Jiatong Li,Wei Liu,Zhihao ding,Wenqi Fan,Yuqiang Li,Qing Li。 [PDF],2024.3,
高:用于图形对齐预preprint层次图象征化
Yongqiang Chen,Quanming Yao,Juzheng Zhang,James Cheng,Yatao Bian。 [PDF],2024.6,
分子发现:开放大型语言模型(LLM),用于几个分子属性预测preprint
Yuyan Liu,Sirui ding,Sheng Zhou,Wenqi Fan,Qiaoyu Tan [PDF],2024.6,
Text2mol:带有自然语言查询的跨模式分子检索。 EMNLP 2021
卡尔·爱德华兹(Carl Edwards),钦吉(Chengxiang Zhai),亨吉(Heng Ji)。 [PDF] [代码],2021.10,
Gimlet:用于基于教学的分子零射门学习的统一图形模型。 preprint
海顿赵,刘·刘,张马,汉南Xu,jie fu,Zhi-hong deng,lingpeng kong,Qi liu。 [PDF] [代码],2023.6,
PROT2TEXT:GNN和Transfers preprint的多模式蛋白的功能生成
Hadi Abdine,Michail Chatzianastasis,Costas Bouyioukos,Michalis Vazirgiannis [PDF],2023.07,
RELM:利用语言模型来增强化学反应预测。 EMNLP 2023
Yaorui Shi,Zhang,Enzhi Zhang,Zhiyuan Liu,Xiang Wang。 [PDF] [代码],2023.10,
生物医学知识图形增强大型语言模型的迅速生成preprint
Karthik Soman,Peter W Rose,John H Morris,Rabia E Akbas,Brett Smith,Braian Peetoom,Catalina Villouta-Reyes,Gabriel Cerono,Yongmei Shi,Angela Rizk-Jackson,Sharat Israni,Sharat Israni,Sharlate a Nelson a Nelson,Suii Huang,Sergio egio egio egiio e [p. 2023.11,
L + M-24:构建语言 +分子的数据集 @ ACL 2024 preprint
卡尔·爱德华兹(Carl Edwards),王王(Qingyun Wang),劳伦斯·赵(Lawrence Zhao),亨吉(PDF)[代码],2024.2,
将分子图与自然语言相关联的分子多模式基础模型。 preprint
Bing Su,Dazhao du,Zhao Yang,Yujie Zhou,Jiangmeng Li,Anyi Rao,Hao Sun,Zhiwu Lu,Ji-Rong Wen [PDF] [Code] [Code],2022.09,,
用于基于文本的检索和编辑的多模式分子结构文本模型。 preprint
Shengchao Liu,Weili Nie,Chengpeng Wang,Jiarui Lu,Zhuoran Qiao,Ling Liu,Jian Tang,Chaowei Xiao,Anima Anandkumar [PDF],2022.10,2022.10,,
从自然语言中提取分子特性,并具有多模式对比度学习ICML 2023 Workshop on Computational Biology
Romain Lacombe,Andrew Gaut,Jeff He,DavidLüdeke,Kateryna Pistunova [PDF],2023.07,
PROTST:蛋白质序列和生物医学文本的多模式学习。 ICML 2023
Minghao Xu,Xinyu Yuan,Santiago Miret,Jian Tang。 [PDF] [代码],2023.1,
在药物发现中增强活动预测模型具有理解人类语言的能力。 ICML 2023
Philipp Seidl,Andreu Vall,Sepp Hochreiter,GünterKlambauer。 [PDF] [代码],2023.5,
MOLFM:多模式分子基础模型。 Preprint
Yizhen Luo,Kai Yang,Massimo Hong,Xing Yi Liu,Zaiqing Nie。 [PDF] [代码],2023.7,
Git-Mol:具有图,图像和文本Preprint的分子科学的多模式大语言模型
Pengfei Liu,Yiming Ren,Zhixiang Ren [PDF],2023.08,
Molca:具有跨模式投影仪和单模式适配器的分子图模型。 EMNLP 2023
Zhiyuan Liu,Sihang Li,Yanchen Luo,Hao Fei,Yixin Cao,Kenji Kawaguchi,Xiang Wang,Tat-Seng Chua。 [PDF] [代码],2023.10,
Chemreasoner:使用量子化学反馈对大语言模型的知识空间进行启发式搜索。 preprint
亨利·W·斯普鲁尔(Henry W. [PDF],2024.2,
大语模型的嘈杂注释的实体对齐。 NeurIPS 2024
Shengyuan Chen,Qinggang Zhang,Junnan Dong,Wen Hua,Qing Li,Xiao Huang。 [PDF] [代码],2024.9,
迭代图对齐。 preprint
Fangyuan Yu,Hardeep Singh Arora,Matt Johnson。 [PDF],2024.8,
图表学习可以改善基于LLM的代理商的计划吗? NeurIPS 2024
Xixi Wu,Yifei Shen,Caihua Shan,Kaitao Song,Siwei Wang,Bohang Zhang,Jiarui Feng,Hong Cheng,Wei Chen,Yun Xiong,Yun Xiong,Dongsheng Li。 [PDF] [代码],2024.5,
GraphTeam:通过多代理协作preprint促进基于大型语言模型的大型图形分析
Xin Li,Qizhi Chu,Yubin Chen,Yang Liu,Yaoqi Liu,Zekai Yu,Weize Chen,Chen Qian,Chuan Shi,Cheng Yang。 [PDF] [代码],2024.10,
GCODER:改进大型语言模型用于通用图形问题解决preprint
Zifan Zhang,Xiaobin Hong,Jianheng Tang,Nuo Chen,Yuhan Li,Wenzhong Li,Jing Tang,Jia Li。 [PDF] [代码],2024.10,
基于图的不确定性指标,用于长格式语言模型输出NeurIPs 2024
Mingjian Jiang,Yangjun Ruan,Prasanna Sattigeri,Salim Roukos,Tatsunori Hashimoto。 [PDF],2024.10
欢迎对此存储库的贡献!
如果您发现任何错误或有相关资源,请随时打开问题或拉动请求。
纸张格式:
1. **[paper title].** `[]`
*[authors].* [[PDF]([pdf link])] [[Code]([code link])], published time,  
如果您发现资源对研究有帮助,请引用以下论文。
@article{jin@llmgraph,
title={Large Language Models on Graphs: A Comprehensive Survey},
author={Jin, Bowen and Liu, Gang and Han, Chi and Jiang, Meng and Ji, Heng and Han, Jiawei},
journal={arXiv preprint arXiv:2312.02783},
year={2023}
}