Eine kuratierte Liste von Artikel und Ressourcen zu Großsprachemodellen (LLMs) in Grafiken basierend auf unserem Umfragepapier: Großsprachmodelle zu Grafiken: Eine umfassende Umfrage.
Ein fantastisches Repo über multimodales Lernen in Diagrammen und hier finden Sie .
Dieses Repo wird kontinuierlich aktualisiert. Vergessen Sie nicht, es zu spielen und dran bleiben!
Bitte zitieren Sie das Papier in Zitaten, wenn Sie die Ressource für Ihre Forschung hilfreich finden. Danke!
Großsprachige Modelle (LLMs) wie Chatgpt und LLAMA erstellen aufgrund ihrer starken Textcodierungs-/Decodierungsfähigkeit und neu gefundenen Emergent -Fähigkeiten (z. B. Argumentation) erhebliche Fortschritte bei der Verarbeitung natürlicher Sprache. Während LLMs hauptsächlich so konzipiert sind, dass reine Texte verarbeitet werden, gibt es viele reale Szenarien, in denen Textdaten mit reichhaltigen Strukturinformationen in Form von Graphen (z. B. akademische Netzwerke und E-Commerce-Netzwerke) oder Szenarien zugeordnet sind, in denen Graphendaten mit umfangreichen Textinformationen (z. B. Molecules mit Beschreibungen) beschriftet sind. Auch wenn LLMs ihre reine textbasierte Argumentationsfähigkeit gezeigt haben, ist es unterbelebt, ob solche Fähigkeiten auf Diagrammszenarien (dh graphbasierte Argumentation) verallgemeinert werden können. In diesem Artikel bieten wir eine umfassende Überprüfung der Szenarien und Techniken, die sich auf große Sprachmodelle in Grafiken beziehen.
Die Transformatorarchitektur, die in der Arbeit verwendet wird, z. B. codierer, decoderony, Encoderdecoder.
Die Größe des großen Sprachmodells, z. B. Medium (dh weniger als 1B -Parameter), LLM (dh mehr als 1B -Parameter).
Großsprachige Modelle und Wissensgrafiken vereinen: eine Roadmap. preprint
Shirui Pan, Linhao Luo, Yufei Wang, Chen Chen, Jiapu Wang, Xindong Wu [PDF], 2023.6
Integration von Grafiken in große Sprachmodelle: Methoden und potenzielle preprint integrieren
Shirui Pan, Yizhen Zheng, Yixin Liu [PDF], 2023.10
In Richtung Graph Foundation -Modelle: Eine Umfrage und darüber hinaus. preprint
Jiawei Liu, Cheng Yang, Zhiyuan Lu, Junze Chen, Yibo Li, Mengmei Zhang, Ting Bai, Yuan Fang, Lichao Sun, Philip S. Yu, Chuan Shi. [PDF], 2023.10
Eine Umfrage zur Grafik erfüllt ein großes Sprachmodell: Fortschritt und zukünftige Anweisungen. preprint
Yuhan Li, Zhixun Li, Peigong Wang, Jia Li, Xianguo Sun, Hong Cheng, Jeffrey Xu Yu. [PDF], 2023.11
Tabelle 3 in unserem Umfragepapier Großsprachenmodelle für Grafiken: Eine umfassende Umfrage.
Direkte Antwort
Können Sprachmodelle Diagrammprobleme in der natürlichen Sprache lösen? preprint
Heng Wang, Shangbin Feng, Tianxing He, Zhaoxuan Tan, Xiaochuang Han, Yulia Tsvetkov. [PDF] [Code], 2023.5,
GPT4GRAPH: Können große Sprachmodelle grafische strukturierte Daten verstehen? Eine empirische Bewertung und Benchmarking. preprint
Jiyan Guo, Lun du, Hengyu Liu, Mengyu Zhou, Xinyi He, Shi Han. [PDF], 2023.5,
Bewertung großer Sprachmodelle in Grafiken: Leistungseinblicke und vergleichende Analyse. preprint
Chang Liu, Bo Wu. [PDF] [Code], 2023.8, [PDF], 2023.5,
Sprechen Sie wie ein Diagramm: Codierung von Diagrammen für Großsprachmodelle. preprint
Bahare Fatemi, Jonathan Halcrow, Bryan Perozzi. [PDF], 2023.10,
Graphlm: Steigern Sie die Fähigkeit des Graphen -Argumentation des großen Sprachmodells. preprint
Ziwei Chai, Tianjie Zhang, Liang Wu, Kaiqiao Han, Xiaohai Hu, Xuanwen Huang, Yang Yang. [PDF] [Code], 2023.10,
LLM4DYG: Können große Sprachmodelle Probleme in dynamischen Graphen lösen? preprint
Zeyang Zhang, Xin Wang, Ziwei Zhang, Haoyang Li, Yijian Qin, Simin Wu, Wenwu Zhu [PDF] [Code], 2023.10,
Welche Modalität sollte ich verwenden - Text, Motiv oder Bild? : Verstehen von Diagrammen mit großen Sprachmodellen. preprint
Debarati Das, Ishaan Gupta, Jaideep Srivastava, Dongyeop Kang [PDF] [Code], 2023.11,
Grapharena: Benchmarking Großsprachenmodelle zu Grafik -Rechenproblemen. preprint
Jianheng Tang, Qifan Zhang, Yuhan Li, Jia Li [PDF] [Code], 2024.7,
LLMs Halluzinat auch Graphen: Eine strukturelle Perspektive. preprint
Erwan Le Merrer, Gilles Trredan [PDF], 2024.9,
StructGPT: Ein allgemeiner Rahmen für ein großes Sprachmodell, um über strukturierte Daten zu begründen. preprint
Jinhao Jiang, Kun Zhou, Zican Dong, Keming Ye, Wayne Xin Zhao, Ji-Rong Wen. [PDF] [Code], 2023.5,
Think-on-Graph: Tiefes und verantwortungsbewusstes Denken des großen Sprachmodells im Wissensgraphen. preprint
Jishuo Sun, Chengjin Xu, Lumingyuan Tang, Saizhuo Wang, Chen Lin, Yeyun Gong, Lionel M. Ni, Heung-Yeung Shum, Jian Guo. [PDF] [Code], 2023.7,
Erforschung des großsprachigen Modells zum Verständnis von Graphaten in Online -Jobempfehlungen. preprint
Likang Wu, Zhaopeng Qiu, Zhi Zheng, Hengshu Zhu, Enhong Chen. [PDF] [Code], 2023.7,
Knowledge Graph Aufforderung zur Beantwortung von Fragen zur Beantwortung von Fragen zur Beantwortung von Fragen. AAAI2024
Yu Wang, Nedim Lipka, Ryan Rossi, Alex Siu, Ruiyi Zhang, Tyler Derr. [PDF] [Code], 2023.8,
Chatrule: Logische Regeln mit großer Sprachmodellen für Wissensgrafik -Argumentation. preprint
Linhao Luo, Jiaxin Ju, Bo Xiong, Yuan-Fang Li, Gholamreza Haffari, Shirui Pan. [PDF] [Code], 2023.9,
Argumentation in Grafiken: Treue und interpretierbare Argumentation des großsprachigen Modells. preprint
Linhao Luo, Yuan-Fang Li, Gholamreza Haffari, Shirui Pan. [PDF] [Code], 2023.10,
Gedankenverbreitung: Ein analoger Ansatz zum komplexen Denken mit großen Sprachmodellen. preprint
Junchi Yu, rannte er, Rex Ying. [PDF], 2023.10,
Großsprachige Modelle können zeitliches Denken lernen. preprint
Siheng Xiong, Ali Payani, Ramana Kompella, Faramarz Fekri. [PDF], 2024.1,
Erforschung der Grenzen des Grafik -Arguments in Großsprachenmodellen. preprint
Palaash Agrawal, Shavak Vasania, Cheston Tan. [PDF], 2024.2,
Rendering Diagramme für das Argumentieren von Graphen in multimodalen Großsprachenmodellen. preprint
Yanbin Wei, Shuai Fu, Weisen Jiang, James T. Kwok, Yu Zhang. [PDF], 2024.2,
Graph-verstärkte Großsprachenmodelle im asynchronen Plan-Argumentieren. preprint
Fangru Lin, Emanuele La Malfa, Valentin Hofmann, Elle Michelle Yang, Anthony Cohn, Janet B. Pierrehumbert. [PDF], 2024.2,
Mikrostrukturen und Genauigkeit des Diagramms durch Großsprachenmodelle. preprint
Yanbang Wang, Hejie Cui, Jon Kleinberg. [PDF], 2024.2,
Strukturgeführte Eingabeaufforderung: Anweisungen des Großsprachenmodells im mehrstufigen Argumentieren durch Erforschen der Graphenstruktur des Textes. preprint
Kewei Cheng, Nesreen K. Ahmed, Theodore Willke, Yizhou Sun. [PDF], 2024.2,
GraphinStruct: Ermächtigung von Großsprachmodellen mit Graphenverständnis und Argumentationsfähigkeit. preprint
Zihan Luo, Xiran Song, Hong Huang, Jianxun Lian, Chenhao Zhang, Jinqi Jiang, Xing Xie, Hai Jin. [PDF], 2024.3,
Rufen Sie mich bei Bedarf an: LLMs können über strukturierte Umgebungen effizient und treu verweisen. preprint
Sitao Cheng, Ziyuan Zhuang, Yong Xu, Fangkai Yang, Chaoyun Zhang, Xiaoting Qin, Xiang Huang, Ling Chen, Qingwei Lin, Dongmei Zhang, Saravan Rajmohan, Qi Zhang. [PDF], 2024.3,
Erforschung des Potenzials großer Sprachmodelle in der Grafikgenerierung. preprint
Yang Yao, Xin Wang, Zeyang Zhang, Yijian Qin, Ziwei Zhang, Xu Chu, Yuekui Yang, Wenwu Zhu, Hong Mei. [PDF], 2024.3,
GraphInsight: Erschließung von Erkenntnissen in Großsprachenmodellen für das Verständnis der Grafikstruktur. preprint
Yukun Cao, Shuo Han, Zengyi Gao, Zezhong Ding, Xike Xie, S. Kevin Zhou. [PDF], 2024.5,
Können Großsprachenmodelle Diagramme wie Profis analysieren? Ein Benchmark, Datensätze und Modelle. NeurIPS 2024
Xin Li, Unise Chen, Qizhi Chu, Haopeng Li, Zhaojun Sun, Ran Li, Chen Qian, Yiwei Wei, Zhiyuan Liu, Chuan Shi, Maosong Sun, Cheng Yang. [PDF] [Code] [Modelle und Datensätze], 2024.9,
Diagramm -Linearisierungsmethoden zum Denken in Diagramme mit großen Sprachmodellen. preprint
Christos Xypolopoulos, Guokan Shang, Xiao Fei, Giannis Nikolentzos, Hadi Abdine, Iakovos Evdaimon, Michail Chitzianastasis, Giorgos Stamou, Michalis Vazirgiannis. [PDF], 2024.10,
GRS-QA-Graph Argumenting-strukturiertes Fragenbeantworter des Datensatzes. preprint
Anish Pahilajani, Devasha Trivedi, Jincen Shuai, Khin S. Yone, Samyak Rajesh Jain, Namyong Park, Ryan A. Rossi, Nesreen K. Ahmed, Franck Dernoncourt, Yu Wang. [PDF], 2024.11,
Graph-Toolformer: Um LLMs mit der Fähigkeit des Diagramms durch eingehend durch ChatGPT erweitert zu werden. preprint
Jiawei Zhang. [PDF] [Code], 2023.4,
Graph-Kette des Gedankens: Erweiterung großer Sprachmodelle durch Argumentation in Grafiken. preprint
Bowen Jin, Chulin Xie, Jiawei Zhang, Kashob Kumar Roy, Yu Zhang, Suhang Wang, Yu Meng, Jiawei Han. [PDF] [Code] [Daten], 2024.4,
Von lokal zu global: Ein Graph-Lag-Ansatz zur Abfragefokussierung. preprint
Darren Edge, Ha Trinh, Newman Cheng, Joshua Bradley, Alex Chao, Apurva Mody, Steven Truitt, Jonathan Larson. [PDF], 2024.4,
Sind großsprachige Modelle Graph Algorithmic Diminers? preprint
Alexander K Taylor, Anthony Cuturrufo, Vishal Yathish, Mingyu Derek Ma, Wei Wang. [PDF] [Code], 2024.10,
Tabelle 7 in unserem Umfragepapier große Sprachmodelle für Grafiken: Eine umfassende Umfrage.
LLM als Prädiktor (Knoten)
Übereinstimmung: Metadata-bewährte Textklassifizierung in einer großen Hierarchie. WWW 2021
Yu Zhang, Zhihong Shen, Yuxiao Dong, Kuansan Wang, Jiawei Han. [PDF] [Code], 2021.2,
QA-GNN: Argumentation mit Sprachmodellen und Wissensgrafiken zur Beantwortung von Fragen. NAACL 2021
Michihiro Yasunaga, Hongyu Ren, Antoine Bosselut, Percy Liang, Jure Leskovec. [PDF] [Code], 2021.4,
Die natürliche Sprache ist alles ein Diagramm. preprint
Ruosong Ye, Caiqi Zhang, Runhui Wang, Shuyuan Xu, Yongfeng Zhang. [PDF], 2023.8,
Kann LLMs effektiv Graph -Strukturinformationen nutzen: Wann und warum. preprint
Jin Huang, Xingjian Zhang, Qiaozhu Mei, Jiaqi MA. [PDF] [Code], 2023.9,
Graph Neural -Aufforderung mit großen Sprachmodellen. preprint
Yijun Tian, Huan -Lied, Zichen Wang, Haozhu Wang, Ziqing Hu, Fang Wang, Nitesh V. Chawla, Panpan Xu. [PDF], 2023.9,
Eingabeaufforderungsbasierter Knotenfunktions-Extraktor für wenige Schüsse-Lernen in Text-übereinstimmenden Diagrammen. preprint
Xuanwen Huang, Kaiqiao Han, Dezheng Bao, Quanjin Tao, Zhisheng Zhang, Yang Yang, Qi Zhu. [PDF], 2023.9,,,
GraphText: Diagramm -Argumentation im Textraum. preprint
Jianan Zhao, Le Zhuo, Yikang Shen, Meng Qu, Kai Liu, Michael Bronstein, Zhaocheng Zhu, Jian Tang [PDF], 2023.10,
GraphGPT: Diagrammanweisungen für große Sprachmodelle. preprint
Jiabin Tang, Yuhao Yang, Wei Wei, Lei Shi, Lixin Su, Suqi Cheng, Dawei Yin, Chao Huang. [PDF], 2023.10,
Lernen Multiplex-Einbettung in textreiche Netzwerke mit einem Textcodierer. preprint
Bowen Jin, Wentao Zhang, Yu Zhang, Yu Meng, Han Zhao, Jiawei Han. [PDF] [Code], 2023.10,
Entwirrte Darstellung des Lernens mit großen Sprachmodellen für textbezogene Diagramme. preprint
Yijian Qin, Xin Wang, Ziwei Zhang, Wenwu Zhu. [PDF], 2023.10,
ArgumentationLM: Ermöglichen Sie struktureller Untergraph-Argumentation in vorgeborenen Sprachmodellen zur Beantwortung von Wissensgrafiken. EMNLP23
Jinhao Jiang, Kun Zhou, Wayne Xin Zhao, Yaliang Li, Ji-Rong Wen. [PDF], 2023.12,
Kette der Geschichte: Lernen und Prognosen mit LLMs für die Abschluss des zeitlichen Wissensdiagramms. preprint
Ruilin Luo, Tianle Gu, Haoling Li, Junzhe Li, Zicheng Lin, Jiyi Li, Yujiu Yang. [PDF] [Code], 2024.1,
Skalierbare Verbindung Vorhersage in groß angelegten heterogenen Graphen mit großartigen Modellen. preprint
Baolong Bi, Shenghua Liu, Yiwei Wang, Lingrui Mei, Xueqi Chen. [PDF], 2024.1,
Ähnlichitätsbasierte Nachbarauswahl für Graph LLMs. preprint
Rui Li, Jiwei Li, Jiawei Han, Guoyin Wang. [PDF], 2024.2,
Lassen Sie Ihr Diagramm das Sprechen durchführen: codieren strukturierte Daten für LLMs. preprint
Bryan Perozzi, Bahare Fatemi, Dustin Zelle, Anton Tsitsulin, Mehran Kazemi, Rami al-Rfou, Jonathan Halcrow. [PDF], 2024.2,
Anweisungen: Steigern Sie große Sprachmodelle durch graphisch-zentrierte Anweisungen und Präferenzausrichtung. preprint
Jianing Wang, Junda Wu, Yupeng Hou, Yao Liu, Ming Gao, Julian McAuley. [PDF], 2024.2,
Graph Neuronal Network erweiterte das Abrufen von Fragen zur Beantwortung von LLMs. preprint
Zijian Li, Qingyan Guo, Jiawei Shao, Lei Song, Jiang Bian, Jun Zhang, Rui Wang. [PDF], 2024.6,
LLMs als Null-Shot-Graph-Lernende: Ausrichtung von GNN-Darstellungen mit LLM-Token-Einbettungen. preprint
Duo Wang, Yuan Zuo, Fengzhi Li, Junjie Wu. [PDF], 2024.8,
Textgenerierung aus Wissensgrafiken mit Graphtransformatoren. NAACL 2019
Rik Koncel-Kedziorski, Dhanush Bekal, Yi Luan, Mirella Lapata, Hannaneh Hajishirzi. [PDF] [Code], 2019.4,
Graphformers: GNN-bedingte Transformatoren zum Erlernen von Repräsentation im Textdiagramm. NeurIPs 2021
Junhan Yang, Zheng Liu, Shitao Xiao, Chaozhuo Li, Defu Lian, Sanjay Agrawal, Amit Singh, Guangzhong Sun, Xing Xie. [PDF] [Code], 2021.5,
Fettleiter: Graph -Argumentation verbesserte Sprachmodelle für die Beantwortung von Fragen. ICLR 2022
Xikun Zhang, Antoine Bosselut, Michihiro Yasunaga, Hongyu Ren, Percy Liang, Christopher D Manning und Jure Leskovec. [PDF] [Code], 2022.1,,
Heterformer: Lernen von transformatorbasiertem Deep-Knoten-Repräsentation in heterogenen textreichen Netzwerken. KDD 2023
Bowen Jin, Yu Zhang, Qi Zhu, Jiawei Han. [PDF] [Code], 2022.5,
Versteckte Schema -Netzwerke. preprint
Ramsés J. Sánchez, Lukas Conrads, Pascal Welke, Kostadin Cvejoski, César Ojeda. [PDF], 2022.7,
Drache: Tiefes bidirektionales Sprachkenntnis-Graph Vorbereitung. NeurIPs 2022
Michihiro Yasunaga, Antoine Bosselut, Hongyu Ren, Xikun Zhang, Christopher D. Manning, Percy Liang, Jure Leskovec. [PDF] [Code], 2022.10,
Edgeformers: Graph-ausgestattete Transformatoren zum Erlernen von Darstellungen in Textnetznetzwerken. ICLR 2023
Bowen Jin, Yu Zhang, Yu Meng, Jiawei Han. [PDF] [Code], 2023.1,
Patton: Sprachmodell Vorbereitung auf textreiche Netzwerke. ACL 2023
Bowen Jin, Wentao Zhang, Yu Zhang, Yu Meng, Xinyang Zhang, Qi Zhu, Jiawei Han. [PDF] [Code], 2023.5,
Graphsprachmodelle. preprint
Moritz Plenz, Anette Frank. [PDF], 2024.1,
Effiziente Abstimmung und Schlussfolgerung für große Sprachmodelle in Textdiagrammen. preprint
Yun Zhu, Yaoke Wang, Haizhou Shi, Siliang Tang. [PDF], 2024.1,
Hyperbert: Mischen von hypergraphbewussten Ebenen mit Sprachmodellen für die Klassifizierung der Knoten auf textbedingten Hypergraphen. preprint
Adrián Bazaga, Pietro Liò, Gos Micklem. [PDF], 2024.2,
Entfesseln Sie die Leistung von LLMs als multi-modale Encoder für Text- und graph-strukturierte Daten. preprint
Jiachen Lin, Kun Qian, Haoyu Han, Nurendra Choudhary, Tianxin Wei, Zhongruo Wang, Sahika Genc, Edward mit Sheng Wang, Karthik Subbian, Danai Koutra, Jimeng Sun. [PDF], 2024.10,
Erklären von Beziehungen zwischen wissenschaftlichen Dokumenten. ACL 2021
Kelvin Luu, Xinyi Wu, Rik Koncel-Kedziorski, Kyle Lo, Isabel Cachola, Noah A. Smith. [PDF], 2020.2,
Gespenst: Repräsentationslernen auf Dokumentenebene unter Verwendung von zitierfähigen Transformatoren. ACL 2020
Arman Cohan, Sergey Feldman, Iz Beltagy, Doug Downey, Daniel S. Weld. [PDF], 2020.4,
Pre-Training für Ad-hoc-Abruf: Hyperlink benötigt auch. CIKM 2021
Zhengyi MA, Zhicheng Dou, Wei Xu, Xinyu Zhang, Hao Jiang, Zhao Cao, Ji-Rong Wen. [PDF] [Code], 2021.8,
Nachbarschafts kontrastives Lernen für wissenschaftliche Dokumente Darstellungen mit Zitiereinbettungen. EMNLP 2022
Malte Ostendorff, Nils Rethhmeier, Isabelle Audenstein, Bela Gipp, Georg Rehm. [PDF] [Code], 2022.2,
Metadata-induziertes kontrastives Lernen für die Klassifizierung von Multi-Label-Textklassifizierung mit Null-Shot. WWW 2022
Yu Zhang, Zhihong Shen, Chieh-Han Wu, Boya Xie, Junheng Hao, Ye-yi Wang, Kuansan Wang, Jiawei Han. [PDF] [Code], 2022.2,
Linkbert: Vorbereitungssprachmodelle mit Dokumentlinks. ACL 2022
Michihiro Yasunaga, Jure Leskovec, Percy Liang. [PDF] [Code], 2022.3,
E2EG: End-to-End-Knotenklassifizierung unter Verwendung von Graph-Topologie und textbasierten Knotenattributen. ICDM 2023
Tu Anh Dinh, Jeroen Den Boef, Joran Cornelisse, Paul Groth. [PDF], 2022.8,
Twhin-Bert: Ein sozial angereichertes vorgebildetes Sprachmodell für mehrsprachige Tweet-Darstellungen bei Twitter. KDD 2023
Xinyang Zhang, Yury Malkov, Omar Florez, Serim Park, Brian McWilliams, Jiawei Han, Ahmed El-Kishky. [PDF] [Code], 2022.9,
Berührungsg-G: Verbesserung der Merkmalsdarstellung durch graphisch-zentrierte Finetuning. preprint
Jing Zhu, Xiang Song, Vassilis N. Ioannidis, Danai Koutra, Christos Faloutsos. [PDF], 2023.9,
Wikiformator: Vorausbildung mit strukturierten Informationen von Wikipedia für Ad-hoc-Abruf. preprint
Weihang Su, Qingyao Ai, Xiangsheng Li, Jia Chen, Yiqun Liu, Xiaolong Wu, Shengluan Hou. [PDF], 2023.12,
Walklm: Ein einheitliches Sprachmodell für Feinabstimmungsrahmen für zugeschriebene Graphenbetten. NeurIPs 2023
Yanchao Tan, Zihao Zhou, Hang LV, Weimering Liu, Carl Yang. [PDF], 2023.12,
Glam: Feinabstimmung Großsprachige Modelle für die Domänenwissengrafikausrichtung über die Partitionierung der Nachbarschaft und die generative Subgraph-Codierung. AAAI 2024
Stefan Dernbach, Khushbu Agarwal, Alejandro Zuniga, Michael Henry, Sutanay Choudhury. [PDF], 2024.2,
UNIGLM: Schulung eines einheitlichen Sprachmodells für textbezogene Diagramme. preprint 2024
Yi Fang, Dongzhe Fan, Sirui Ding, Ninghao Liu, Qiaoyu Tan. [PDF], 2024.6,
GNN-LM: Sprachmodellierung basierend auf globalen Kontexten über GNN. ICLR 2022
Yuxian Meng, Shi Zong, Xiaoya Li, Xiaofei Sun, Tianwei Zhang, Fei Wu, Jiwei Li. [PDF] [Code], 2021.10,
Knotenfunktionsextraktion durch selbstüberwachende Multi-Scale-Nachbarschaftsvorhersage. ICLR 2022
Eli Chien, Wei-Acheng Chang, Cho-Jui Hsieh, Hsiang-Fu Yu, Jiong Zhang, Olgica Milenkovic, Inderjit S Dhillon. [PDF] [Code], 2021.11,
TextGNN: Verbesserung des Textcodierers über das neuronale Netzwerk von Graph bei gesponserter Suche. WWW 2021
Jason Yue Zhu, Yanling Cui, Yuming Liu, Hao Sun, Xue Li, Markus Pelger, Tianqi Yang, Liangjie Zhang, Ruofei Zhang, Huasha Zhao. [PDF] [Code], 2022.1
ADSGNN: Verhaltensgrapher Relevanzmodellierung bei gesponserten Suche. SIGIR 2021
Chaozhuo li, Bhochen Pang, Yuming Liu, Hao Sun, Zheng Liu, Xing Xie, Tianqi Yang, Yanling Cui, Liangjie Zhang, Qi Zhang. [PDF] [Code], 2022.4
Effizientes und effektives Training von Sprach- und Grafikmodellen für neuronale Netzwerke. AAAI 2023
Vassilis n Ioannidis, Xiang -Lied, da Zheng, Houyu Zhang, Jun Ma, Yi Xu, Belinda Zeng, Trishul Chilimbi, George Karypis. [PDF], 2022.6,
Das graphbewusste Sprachmodell vor dem Training auf einem großen Graph-Korpus kann mehrere Diagrammanwendungen unterstützen. KDD 2023
Han Xie, da Zheng, Jun MA, Houyu Zhang, Vassilis N. Ioannidis, Xiang -Lied, Qing Ping, Sheng Wang, Carl Yang, Yi Xu, Belinda Zeng, Trishul Chilimbi. [PDF], 2023.6,
Erforschung des Potenzials großer Sprachmodelle (LLMs) beim Lernen in Diagrammen. preprint
Zhikai Chen, Haitao Mao, Hang Li, Wei Jin, Hongzhi Wen, Xiaochi Wei, Shuaiqiang Wang, Dawei Yin, Wenqi -Fan, Hui Liu, Jiliang Tang. [PDF] [Code], 2023.7,
Simteg: Ein frustrierend einfacher Ansatz verbessert das Lernen des Textdiagramms. preprint
Keyu Duan, Qian Liu, Tat-Seng Chua, Shuicheng Yan, Wei Tsang Ooi, Qizhe Xie, Junxian He. [PDF] [Code], 2023.8,
Erläuterungen als Funktionen: LLM-basierte Funktionen für textbezogene Diagramme. preprint
Xiaoxin HE, Xavier Bresson, Thomas Laurent, Adam Perold, Yann Lecun, Bryan Hooi. [PDF] [Code], 2023.5,
Etikettfreie Knotenklassifizierung in Diagramme mit großsprachigen Modellen (LLMs). preprint
Zhikai Chen, Haitao Mao, Hongzhi Wen, Haoyu Han, Wei Jin, Haiyang Zhang, Hui Liu, Jiliang Tang. [PDF], 2023.9,
Ermächtigen Sie Text mit den textgerichteten Graphen mit großer Sprachmodellen (LLMs). preprint
Jianxiang Yu, Yuxiang Ren, Chenghua Gong, Jiaqi Tan, Xiang Li, Xuecang Zhang. [PDF], 2023.10,
Großsprachige Modelle als topologische Strukturverstärker für textbezogene Graphen. preprint
Shengyin Sun, Yuxiang Ren, Chen MA, Xuecang Zhang. [PDF], 2023.11,
Eine umfassende Studie zu textabstiegenden Grafiken: Benchmarking und Überdenken. NeurIPS 2023
Hao Yan, Chaozhuo Li, Ruosong Long, Chao Yan, Jianan Zhao, Wenwen Zhuang, Jun Yin, Peiyan Zhang, Weihao Han, Hao Sun, Weiwei Deng, Qi Zhang, Lichao Sun, Xing Xie, Senzhang Wang [PDF] [Code], 2023.11,
Destillieren von Ereignissequenzwissen von großen Sprachmodellen. preprint
Somin Wadhwa, Oktie Hassanzadeh, Debarun Bhattacharjya, Ken Barker, Jian Ni. [PDF], 2024.1,
Vergiss nicht zu verbinden! Verbesserung von Lappen mit graphbasiertem Reranking. preprint
Jialin Dong, Bahare Fatemi, Bryan Perozzi, Lin F. Yang, Anton Tsitsulin. [PDF], 2024.5,
Gaugllm: Verbesserung des kontrastiven Lernens von Diagrammen für textgerichtete Diagramme mit großsprachigen Modellen KDD 2024
Yi Fang, Dongzhe Fan, Daochen Zha, Qiaoyu Tan. [PDF], 2024.5,
Trainieren Sie Ihren eigenen GNN-Lehrer: Graph-bewusstes Destillation in Textdiagrammen. PKDD 2023
C. mavromatis, VN Ioannidis, S. Wang, D. Zheng, S. Adeshina, J. Ma, H. Zhao, C. Faloutsos, G. Karypis. [PDF], 2023.4,
Effiziente Großsprachenmodelle, die in Diagramme fein abtun. preprint
Rui Xue, Xipeng Shen, Ruozhou Yu, Xiaorui Liu. [PDF], 2023.12,
Destillieren großer Sprachmodelle für Text-in-angerichtete Graphen-Lernen. preprint
Bo Pan, Zheng Zhang, Yifei Zhang, Yuntong Hu, Liang Zhao. [PDF], 2024.2,
Parameter-effizientes Tuning großer Sprachmodelle für das Lernen von Diagrammrepräsentationen. preprint
Qi Zhu, da Zheng, Xiang -Lied, Shichang Zhang, Bowen Jin, Yizhou Sun, George Karypis. [PDF], 2024.4,
Überbrückung lokaler Details und globaler Kontext in textbezogenen Graphen. preprint
Yaoke Wang, Yun Zhu, Wenqiao Zhang, Yueting Zhuang, Yunfei Li, Siliang Tang. [PDF], 2024.6,
Graphsprachmodelle. ACL 2024
Moritz Plenz, Anette Frank. [PDF] [Code], 2024.1,
Minimal überprüfte strukturreiche Textkategorisierung durch Lernen in textreichen Netzwerken. WWW 2021
Xinyang Zhang, Chenwei Zhang, Luna Xin Dong, Jingbo Shang, Jiawei Han. [PDF] [Code], 2021.2,
Lernen in groß angelegten Textdarstellern durch variationsübergreifende Inferenz. ICLR 2023
Jianan Zhao, Meng Qu, Chaozhuo Li, Hao Yan, Qian Liu, Rui Li, Xing Xie, Jian Tang. [PDF] [Code], 2023.1,
Herzlichen Glückwunsch: Selbstversorgere kontrastive Vorbereitung für gemeinsame Grafiken und Texteinbettungen. preprint
William Brannon, Suyash Fulay, Hang Jiang, Wonjune Kang, Brandon Roy, Jad Kabbara, Deb Roy. [PDF] [Code], 2023.5,
Erweiterung der Textklassifizierung mit niedriger Ressourcen mit vorhandenem vorhandenem Diagramm. SIGIR 2023
Zhihao Wen, Yuan Fang. [PDF], 2023.5,
Granate: Graph-zentriertes Sprachmodell für selbstbewertete Darstellungslernen in textabtribierten Diagrammen. EMNLP 2023
Yichuan Li, Kaize Ding, Kyumin Lee. [PDF] [Code], 2023.10,
Vorabsprachmodelle mit textlich geschriebenen heterogenen Graphen. preprint
Tao Zou, Le Yu, Yifei Huang, Leilei Sun, Bowen du. [PDF] [Code], 2023.10,
Tabelle 8 in unserem Umfragepapier große Sprachmodelle für Grafiken: Eine umfassende Umfrage.
LLM als Prädiktor (Graph)
SMILES-TERT: Large Maßstab unbeaufsichtigt vor dem Training für die molekulare Eigenschaft Vorhersage BCB 19
Sheng Wang, Yuzhi Guo, Yuhong Wang, Hongmao Sun, Junzhou Huang [PDF] [Code], 2019.09,
MolGPT: Molekulare Erzeugung unter Verwendung eines Transformator-Decoder-Modells. Journal of Chemical Information and Modeling
Viraj Bagal, Rishal Aggarwal, PK Vinod und U. Deva Priyakumar [PDF] [Code], 2021.10,,,,
Ein tiefes Lernsystem, das die Molekülstruktur und den biomedizinischen Text mit Verständnis mit menschlichen Fachleuten überbrückt. Nature Communications
Zheni Zeng, Yuan Yao, Zhiyuan Liu, Maosong Sun [PDF] [Code], 2022.02,
Chemformer: Ein vorgebildeter Transformator für Computerchemie Machine Learning: Science and Technology
Ross Irwin, Spyridon Dimitriadis, Jiazhen He und Esben Jannik Bjerrum [PDF] [Code], 2022.02,
Großes verteiltes Training von Transformatoren zum chemischen Fingerabdruck. Journal of Chemical Information and Modeling
Hisham Abdel-Aty, Ian R. Gould [PDF] [Code], 2022.06,
Galactica: Ein großes Sprachmodell für wissenschaftliche Preprint
Ross Taylor, Marcin Kardas, Guillem Cucurull, Thomas Scialom, Anthony Hartshorn, Elvis Saravia, Andrew Poulton, Viktor Kerkez, Robert Stojnic [PDF] [Code], 2022.11,
Übersetzung zwischen Molekülen und natürlicher Sprache. EMNLP 2022
Carl Edwards, Tuan Lai, Kevin Ros, Garrett Honke, Kyunghyun Cho, Heng Ji. [PDF] [Code], 2022.12,
Vereinheitliche molekulare und textuelle Darstellungen über Multi-Task-Sprachmodellierung ICML 2023
Dimitrios Christofidellis, Giorgio Giannone, Jannis Born, Ole Winther, Teodoro Laino, Matteo Manica [PDF] [Code], 2023.05,
Was können große Sprachmodelle in der Chemie tun? Ein umfassender Maßstab für acht Aufgaben. NeurIPS 2023
Taicheng Guo, Kehan Guo, Bozhao Nan, Zhenwen Liang, Zhichun Guo, Nitesh V. Chawla, Olaf Wiest, Xiangliang Zhang [PDF] [Code], 2023.9,
Molxpt: Wickeln Moleküle mit Text für generative Vorausbildung. ACL 2023
Zequn Liu, Wei Zhang, Yingce Xia, Lijun Wu, Shufang Xie, Tao Qin, Ming Zhang, Tie-yan Liu. [PDF], 2023.05,
Interaktive molekulare Entdeckung mit natürlicher preprint
Zheni Zeng, Bangchen Yin, Shipg Wang, Jiarui Liu, Cheng Yang, Haishen Yao, Xingzhi Sun, Maosong Sun, Guotong Xie, Zhiyuan Liu. [PDF] [Code], 2023.06,
Ermächtigung der Moleküle Entdeckung für die Übersetzung von Molekül-Kapion mit großen Sprachmodellen: Ein Chatgpt-Perspektive preprint
Jiatong Li, Yunqing Liu, Wenqi-Fan, Xiao-yong Wei, Hui Liu, Jiliang Tang, Qing Li. [PDF], 2023.06, [Code],
Der Regressionstransformator ermöglicht eine gleichzeitige Sequenzregression und -erzeugung für die molekulare Sprachmodellierung Nature Machine Intelligence
Jannis geboren, Matteo Manica [PDF] [Code], 2023.6,,,
Können große Sprachmodelle die Vorhersage der molekularen Eigenschaften stärken? preprint
Chen Qian, Huayi Tang, Zhirui Yang, Hong Liang, Yong Liu. [PDF] [Code], 2023.7,
Mol-Instruktionen: Ein groß preprint
Yin Fang, Xiaozhuan Liang, Ningyu Zhang, Kangwei Liu, Rui Huang, Zhuo Chen, Xiaohui -Fan, Huajun Chen [PDF], 2023.07,
GPT-Molberta: GPT-Sprachmodell für molekulare Merkmale für die Vorhersage der molekularen Eigenschaft. preprint
Balaji, Suryanarayanan, Rishikesh Magar und Yayati Jadhav. [PDF], 2023.10,
Der Einfluss von Großsprachenmodellen auf die wissenschaftliche Entdeckung: Eine vorläufige Studie mit GPT-4. preprint
Microsoft Research AI4Science, Microsoft Azure Quantum [PDF], 2023.11,
In Richtung 3D-Molekül-Text-Interpretation in Sprachmodellen ICLR 2024
Sihang Li, Zhiyuan Liu, Yanchen Luo, Xiang Wang, Xiangnan HE, Kenji Kawaguchi, Tat-Seng Chua, Qi Tian. [PDF], 2024.1,
MOLTC: Auf dem Weg zur molekularen relationalen Modellierung in Sprachmodellen preprint
Junfeng Fang, Shuai Zhang, Chang Wu, Zhengyi Yang, Zhiyuan Liu, Sihang Li, Kun Wang, Wenjie du, Xiang Wang. [PDF], 2024.2,
Großsprachenmodelle sind im Kontext-Moleküllerner preprint
Jiatong Li, Wei Liu, Zhihao Ding, Wenqi Fan, Yuqiang Li, Qing Li. [PDF], 2024.3,
HIGHT: Hierarchische Diagramm-Tokenisierung für die Ausrichtung der Grafik- preprint
Yongqiang Chen, Quanming Yao, Juzheng Zhang, James Cheng, Yatao Bian. [PDF], 2024.6,
MolecularGPT: Open großes Sprachmodell (LLM preprint für wenige Schussmolekulareigenschaftsvorhersagevorbereitungen
Yuyan Liu, Sirui Ding, Sheng Zhou, Wenqi Fan, Qiaoyu Tan [PDF], 2024.6,
Text2mol: Cross-modal-Molekül-Abruf mit natürlichen Sprachanfragen. EMNLP 2021
Carl Edwards, Chengxiang Zhai, Heng Ji. [PDF] [Code], 2021.10,
GIMLET: Ein einheitliches Graph-Text-Modell für anweisungsbasiertes Molekül Zero-Shot-Lernen. preprint
Haiteng Zhao, Shengchao Liu, Chang MA, Hannan Xu, Jie Fu, Zhi-Hong Deng, Lingpeng Kong, Qi Liu. [PDF] [Code], 2023.6,
Prot2Text: Funktionserzeugung des multimodalen Proteins mit GNNs und preprint
Hadi Abdine, Michail Chitzianastasis, Costas Bouyioukos, Michalis Vazirgiannis [PDF], 2023.07,
RELM: Nutzung von Sprachmodellen für eine verstärkte chemische Reaktionsvorhersage. EMNLP 2023
Yaorui Shi, ein Zhang, Enzhi Zhang, Zhiyuan Liu, Xiang Wang. [PDF] [Code], 2023.10,
Biomedical Knowledge Graph-verstärkte Eingabeaufforderung für große Sprachmodelle preprint
Karthik Soman, Peter W Rose, John H. Morris, Rabia E Akbas, Brett Smith, Braian Peetoom, Catalina Villouta-Reyes, Gabriel Cerono, Yongmei Shi, Angela Rizk-Jackson, Sharat Israni, Charlotte A.
L + M-24: Erstellen eines Datensatzes für Sprache + Moleküle @ ACL 2024 preprint
Carl Edwards, Qingyun Wang, Lawrence Zhao, Heng JI [PDF] [Code], 2024.2,
Ein molekulares multimodales Fundamentmodell, das Moleküldiagramme mit natürlicher Sprache assoziiert. preprint
Bing Su, Dazhao du, Zhao Yang, Yujie Zhou, Jiangmeng Li, Anyi Rao, Hao Sun, Zhiwu Lu, Ji-Rong Wen [PDF] [Code], 2022.09,
Multimodal-Molekül-Struktur-Text-Modell für textbasiertes Abrufen und Bearbeiten. preprint
Shengchao Liu, Weili Nie, Chengpeng Wang, Jiarui Lu, Zhuoran Qiao, Ling Liu, Jian Tang, Chaowei Xiao, Anima Anandkumar [PDF], 2022.10,
Extrahieren molekularer Eigenschaften aus der natürlichen Sprache mit multimodalem kontrastivem Lernen ICML 2023 Workshop on Computational Biology
Romain Lacombe, Andrew Gaut, Jeff He, David Lüdeke, Kateryna Pistunova [PDF], 2023.07,
ProTST: Multimodalitätslernen von Proteinsequenzen und biomedizinischen Texten. ICML 2023
Minghao Xu, Xinyu Yuan, Santiago Miret, Jian Tang. [PDF] [Code], 2023.1,
Verbesserung der Aktivitätsvorhersagemodelle bei der Entdeckung von Arzneimitteln mit der Fähigkeit, die menschliche Sprache zu verstehen. ICML 2023
Philipp Seidl, Andreu Vall, Sepp Hochreiter, Günter Klambauer. [PDF] [Code], 2023.5,
Molfm: Ein multimodales molekulares Fundamentmodell. Preprint
Yizhen Luo, Kai Yang, Massimo Hong, Xing Yi Liu, Zaiqing Nie. [PDF] [Code], 2023.7,
GIT-MOL: Ein multimodales Großsprachmodell für die molekulare Wissenschaft mit Diagramm, Bild und Preprint
Pengfei Liu, Yiming Ren, Zhixiang Ren [PDF], 2023.08,
Molca: Molekulargraf-Sprachmodellierung mit Quermodalprojektor und Uni-Modal-Adapter. EMNLP 2023
Zhiyuan Liu, Sihang Li, Yanchen Luo, Hao Fei, Yixin Cao, Kenji Kawaguchi, Xiang Wang, Tat-Seng Chua. [PDF] [Code], 2023.10,
Chemreasoner: Heuristische Suche nach dem Wissensraum eines großen Sprachmodells unter Verwendung quantenchemischer Feedback. preprint
Henry W. Sprueill, Carl Edwards, Khushbu Agarwal, Mariefel V. Olarte, Udishnu Sanyal, Conrad Johnston, Hongbin Liu, Heng JI, Sutanay Choudhury. [PDF], 2024.2,
Einrichtung der Entität mit lauten Anmerkungen aus Großsprachenmodellen. NeurIPS 2024
Shengyuan Chen, Qinggang Zhang, Junnan Dong, Wen Hua, Qing Li, Xiao Huang. [PDF] [Code], 2024.9,
Iterative Diagrammausrichtung. preprint
Fangyuan Yu, Hardeep Singh Arora, Matt Johnson. [PDF], 2024.8,
Kann Grafiklernen die Planung in LLM-basierten Agenten verbessern? NeurIPS 2024
Xixi Wu, Yifei Shen, Caihua Shan, Kaitao -Lied, Siwei Wang, Bohang Zhang, Jiarui Feng, Hong Cheng, Wei Chen, Yun Xiong, Dongsheng Li. [PDF] [Code], 2024.5,
GraphTeam: Erleichterung der modellbasierten Graphanalyse in großer Sprache über Multi-Agent- preprint
Xin Li, Qizhi Chu, Yubin Chen, Yang Liu, Yaoqi Liu, Zekai Yu, Unise Chen, Chen Qian, Chuan Shi, Cheng Yang. [PDF] [Code], 2024.10,
GCODER: Verbesserung des Großsprachenmodells für verallgemeinerte Graph preprint
Qifan Zhang, Xiaobin Hong, Jianheng Tang, Nuo Chen, Yuhan Li, Wenzhong Li, Jing Tang, Jia Li. [PDF] [Code], 2024.10,
Graph-basierte Unsicherheitsmetriken für Langformsprachenmodell gibt NeurIPs 2024 aus
Mingjian Jiang, Yangjun Ruan, Prasanna Sattigeri, Salim Roukos, Tatsunori Hashimoto. [PDF], 2024.10
Beiträge zu diesem Repository sind willkommen!
Wenn Sie Fehler finden oder über relevante Ressourcen verfügen, können Sie ein Problem oder eine Pull -Anfrage öffnen.
Papierformat:
1. **[paper title].** `[]`
*[authors].* [[PDF]([pdf link])] [[Code]([code link])], published time,  
Please cite the following paper if you find the resource helpful for your research.
@article{jin@llmgraph,
title={Large Language Models on Graphs: A Comprehensive Survey},
author={Jin, Bowen and Liu, Gang and Han, Chi and Jiang, Meng and Ji, Heng and Han, Jiawei},
journal={arXiv preprint arXiv:2312.02783},
year={2023}
}