Famille PromptKG: une galerie de travaux de recherche sur l'apprentissage rapide et de recherche sur le kg, les kits d'outils et la liste de papier.
| Annuaire | Description |
|---|
| recherche | • Une collection de mises en œuvre de modèle de recherche liée à l'apprentissage rapide |
| lambdakg | • Une bibliothèque pour les incorporations et applications KG basées sur PLM |
| deltakg | • Une bibliothèque pour modifier dynamiquement les incorporations KG basées sur PLM |
| Tutorial-notebooks | • cahiers de didacticiels pour les débutants |
Table des matières
- Tutoriels
- Relevés
- Papiers
- Connaissance comme rapide
- 1. Compréhension de la langue
- 2. Multimodal
- 3. Tâches avancées
- Invite (PLMS) pour les connaissances
- 1. Probandation de connaissances
- 2. Intégration de graphiques de connaissances
- 3. Analyse
- Coordonnées
Tutoriels
- NLP à zéro et à quelques coups avec des modèles de langage pré-entraînés. Tutoriel AACL 2022 [PPT]
- Construction de graphiques de connaissances économe en données. Tutoriel CCKS2022 [PPT]
- Construction de graphiques de connaissances efficaces et robus. Tutoriel AACL-IJCNLP [PPT]
- Les connaissances ont éclairé l'apprentissage rapide. Tutoriel MLNLP 2022 (chinois) [PPT]
Relevés
- Delta Tuning: une étude complète des méthodes efficaces des paramètres pour les modèles de langage pré-formées (sur Arxiv 2021) [Papier]
- Pré-Train, invite et prédire: une étude systématique des méthodes d'incitation dans le traitement du langage naturel (ACM Computing Surveys 2021) [Paper]
- Pré-formation restructurée (sur Arxiv 2022) [papier]
- Une étude de la PNL à forte intensité de connaissances avec des modèles de langage pré-formées (sur Arxiv 2022) [document]
- Une enquête sur les modèles de langage pré-formé améliorés par les connaissances (sur Arxiv 2022) [document]
- Une revue sur les modèles de langue comme bases de connaissances (sur Arxiv 2022) [document]
- Construction de Generative Knowledge Graph: A Review (EMNLP, 2022) [Papier]
- Raisonnement avec un modèle de langue Invitation: une enquête (sur Arxiv 2022) [document]
- Raisonnement sur différents types de graphiques de connaissances: statique, temporel et multimodal (sur Arxiv 2022) [papier]
- Le cycle de vie des connaissances dans les modèles de grandes langues: une enquête (sur Arxiv 2022) [document]
- Unification des modèles et graphiques de connaissances unificateurs: une feuille de route (sur Arxiv 2023) [papier]
Papiers
Connaissance comme rapide
Compréhension du langage
- Génération auprès de la récupération pour les tâches NLP à forte intensité de connaissances, dans les Neirips 2020. [PDF]
- REALM: Modèle de langage de la récupération pré-formation, dans ICML 2020. [PDF]
- Faire de modèles de langue pré-formés meilleurs apprenants à quelques tirs, dans ACL 2022. [PDF]
- PTR: réglage rapide avec les règles de classification du texte, dans Openai 2022. [PDF]
- Étiqueter la verbalisation et l'implication pour une extraction efficace de relation zéro et à quelques tirs, dans EMNLP 2021. [PDF]
- RelationPrompt: Tire de tirage des invites pour générer des données synthétiques pour l'extraction de triplet de relation zéro, dans EMNLP 2022 (résultats). [PDF]
- Invite bien informé: incorporer les connaissances dans un verbin rapide pour la classification du texte, dans ACL 2022. [PDF]
- PPT: réglage rapide pré-entraîné pour l'apprentissage à quelques coups, dans ACL 2022. [PDF]
- Réglage de démonstration contrasté pour les modèles de langage pré-formés, dans EMNLP 2022 (résultats). [PDF]
- Adaprompt: formation de modèle adaptative pour la PNL basée sur une base de vitesses, dans Arxiv 2022. [PDF]
- Knowprorompt: Awal-Aware insided tun with Synergistic Optimization for Relations Extraction, sur www 2022. [PDF]
- La référence consciente du schéma en tant qu'invite améliore la construction de graphiques de connaissances économe en données, dans Sigir 2023. [PDF]
- Découpement des connaissances de la mémorisation: apprentissage rapide de la récupération, dans les Neirips 2022. [PDF]
- Extraction de relation comme examen des livres ouverts: réglage rapide amélioré de la récupération, dans Sigir 2022. [PDF]
- Lightner: un paradigme de réglage léger pour le NER à faible ressource via une incitation enfichable, dans Coling 2022. [PDF]
- Génération de structure unifiée pour l'extraction d'informations universelles, dans ACL 2022. [PDF]
- LASUIE: Extraction d'informations unifiant avec modèle de langage génératif de la structure adaptative latente, dans les Neirips 2022. [PDF]
- Atlas: apprentissage à quelques coups avec des modèles de langage augmenté de récupération, dans Arxiv 2022. [PDF]
- N'invitez pas, recherchez! Apprentissage zéro-shot basé sur l'exploitation minière avec des modèles de langue, dans ACL 2022. [PDF]
- Connaissances invitant dans le modèle de langue pré-formée pour la compréhension du langage naturel, dans EMNLP 2022. [PDF]
- Invite de connaissances unifiée pré-formation pour les dialogues du service client, dans CIKM 2022. [PDF]
- Connaissances invitant dans le modèle de langue pré-formée pour la compréhension du langage naturel, dans EMNLP 2022. [PDF]
- Auto-instruction: Alignez le modèle de langue avec des instructions auto-générées, dans Arxiv 2022. [PDF]
- Un intégration, n'importe quelle tâche: Instruction-Finetuned Text incorping, in arXiv 2022. [PDF]
- Apprendre à récupérer des invites pour l'apprentissage dans le contexte, dans NAACL 2022. [PDF]
- Les données de formation sont plus précieuses que vous ne le pensez: une méthode simple et efficace en récupérant des données de formation, dans ACL 2022. [PDF]
- Un modèle pour tous les domaines: réglage collaboratif de préfixe de domaine pour le domaine croisé, dans arXiv 2023. [PDF]
- Replug: Modèles de langue noire de récupération à la récupération, dans Arxiv 2023. [PDF]
- Modèle de langage auprès d'augmentation des connaissances pour répondre à la question de la question du graphique de connaissances, dans Arxiv 2023. [PDF]
Multimodal
- Une bonne guise visuelle fait un meilleur extracteur: préfixe visuel hiérarchique pour l'extraction multimodale et extraction de relation, dans NAACL 2022 (résultats). [PDF]
- Réglage de l'invite visuelle, dans ECCV 2022. [PDF]
- CPT: réglage rapide coloré pour les modèles pré-formés en langue de vision, dans EMNLP 2022. [PDF]
- Apprendre à provoquer des modèles de langue visuelle, dans IJCV 2022. [PDF]
- Réglage rapide du temps de test pour la généralisation des coups zéro dans les modèles de vision en langue de vision, dans les Neirips 2022. [PDF]
Tâches avancées
- Recommandation en tant que traitement du langage (RLP): un paradigme invite et prédire personnalisé (P5) unifié, dans ACM Recsys 2022. [PDF]
- Vers des systèmes de recommandation conversationnelle unifiés via l'apprentissage rapide amélioré, dans KDD 2022. [PDF]
- Invitem: invite-tun pour la correspondance des entités généralisées à faible ressource, dans VLDB 2023. [PDF]
- VIMA: manipulation générale du robot avec des invites multimodales, dans Arxiv 2022. [PDF]
- Modèles de langage de rétrosynthèse impartiaux avec invites de déconnexion, dans Arxiv 2022. [PDF]
- PROGPROMPT: Génération de plans de tâches de robot situés en utilisant de grands modèles de langage, dans Arxiv 2022. [PDF]
- Collaborant avec des modèles de langage pour le raisonnement incarné, dans Neirips 2022 Workshop Larel. [PDF]
Invite (PLMS) pour les connaissances
Sondage des connaissances
- Combien de connaissances pouvez-vous emballer dans les paramètres d'un modèle de langue? Dans EMNLP 2020. [PDF]
- Modèles linguistiques comme bases de connaissances? Dans EMNLP 2019. [PDF]
- Bases de connaissances matérialisées des transformateurs de bon sens, dans CSRR 2022. [PDF]
- Modèles linguistiques conscients du temps comme bases de connaissances temporelles, dans TACL2022. [PDF]
- Les modèles génératifs de langage pré-formé peuvent-ils servir de bases de connaissances pour le QA à fermer? dans ACL2021. [PDF]
- Modèles linguistiques comme bases de connaissances: sur les représentations d'entités, la capacité de stockage et les requêtes paraphrasées, dans EACL2021. [PDF]
- Modèles de langage scientifique pour l'achèvement de la base de connaissances biomédicaux: une étude empirique, dans AKBC 2021. [PDF]
- LAMA multilingue: enquêter sur les connaissances dans les modèles de langage post-étirés multilingues, dans EALL2021. [PDF]
- Comment pouvons-nous savoir ce que les modèles de langue savent? dans TACL 2020. [PDF]
- Comment le contexte affecte les prédictions factuelles des modèles linguistiques, dans AKBC 2020. [PDF]
- Copen: sonder les connaissances conceptuelles dans les modèles de langue pré-formés, dans EMNLP 2022. [PDF]
- Sonder les connaissances en comparaison des modèles de langage pré-formées, dans ACL 2022. [PDF]
Graphique de connaissances incorporant (nous fournissons une bibliothèque et des benchmark lambdakg)
- KG-BERT: Bert pour l'achèvement du graphique de connaissances, dans Arxiv 2020. [PDF]
- Apprentissage multi-tâches pour l'achèvement des graphiques de connaissances avec des modèles de langue pré-formés , dans Coling 2020. [PDF]
- Représentation de texte augmentation de la structure pour l'achèvement des graphiques de connaissances efficaces, sur www 2021. [PDF]
- Kepler: un modèle unifié pour l'intégration des connaissances et la représentation du langage pré-formé, TACL 2021 [PDF]
- Statik: Structure et texte pour le graphique de connaissances inductives, dans NAACL 2022. [PDF]
- Langue conjointe sémantique et structure intégrée pour l'achèvement des graphiques de connaissances, dans Coling. [PDF]
- La connaissance est plate: un cadre génératif SEQ2SEQ pour diverses connaissances de l'achèvement du graphique, dans Coling. [PDF]
- Les modèles pré-formés bénéficient-ils à l'achèvement du graphique des connaissances? Une évaluation fiable et une approche raisonnable, dans ACL 2022. [PDF]
- Modèles linguistiques en tant que connaissances, dans IJCAI 2022. [PDF]
- De la discrimination à la génération: l'achèvement du graphique des connaissances avec un transformateur génératif, dans www 2022. [PDF]
- Raisonnement par la mémorisation: intégres de connaissances de connaissance du voisin le plus proche, dans Arxiv 2022. [PDF]
- SIMKGC: Achèvement du graphique de connaissances contrasté simple avec les modèles de langage pré-formés, dans ACL 2022. [PDF]
- Séquence à la séquence de la séquence Complétion des graphiques et réponse aux questions, dans ACL 2022. [PDF]
- LP-BERT: Graphique de connaissances pré-formation multi-tâches Bert pour la prédiction des liens, dans Arxiv 2022. [PDF]
- Masque et raison: Transformers de graphiques de connaissances pré-formation pour requêtes logiques complexes, dans KDD 2022. [PDF]
- La connaissance est plate: un cadre génératif SEQ2SEQ pour diverses connaissances, dans Coling 2022. [PDF]
Analyse
- Guess bien informé ou éduqué? Revisiter les modèles de langue comme bases de connaissances, dans ACL 2021. [PDF]
- Les modèles de langage pré-étirés peuvent-ils provoquer? Comprendre les risques invisibles d'une vision causale, dans ACL 2022. [PDF]
- Comment les modèles de langue pré-formés capturent les connaissances factuelles? Une analyse inspirée de la causalité, dans ACL 2022. [PDF]
- Capacités émergentes des grands modèles de langue, dans Arxiv 2022. [PDF]
- Neurones de connaissances dans les transformateurs pré-entraînés, dans ACL 2022. [PDF]
- Trouver des neurones de compétence dans les modèles de langage basés sur les transformateurs pré-formés, dans EMNLP 2022. [PDF]
- Les invites résolvent-elles les tâches PNL en utilisant des langues naturelles? Dans ArXIV 2022. [PDF]
- Repenser le rôle des démonstrations: qu'est-ce qui fait du travail d'apprentissage en contexte? Dans EMNLP 2022. [PDF]
- Les modèles basés sur des invites comprennent-ils vraiment la signification de leurs invites? Dans NAACL 2022. [PDF]
- Quand ne pas faire confiance aux modèles de langage: étudier l'efficacité et les limites des souvenirs paramétriques et non paramétriques, dans Arxiv 2022. [PDF]
- Pourquoi GPT peut-il apprendre dans le contexte? Les modèles linguistiques effectuent secrètement une descente de gradient sous forme de méta-optimissages , dans Arxiv 2022. [PDF]
- Invites fantastiquement commandées et où les trouver: surmonter la sensibilité à quelques coups d'ordre invite, dans ACL 2022. [PDF]
- Édition de grands modèles de langue: problèmes, méthodes et opportunités, dans Arxiv 2023. [PDF]
Coordonnées
Pour obtenir de l'aide ou des problèmes en utilisant les Takeits, veuillez soumettre un problème GitHub.