Réponse de question géniale
Une liste organisée de la question de réponse à la question (QA) qui est une discipline informatique dans les domaines de la recherche d'informations et du traitement du langage naturel (PNL) vers l'utilisation de l'apprentissage automatique et de l'apprentissage en profondeur
정보검색및자연언어처리분아야의질의응답에관한큐레이션 - 머신러닝과딥러닝단계까지
Une liste sélectionnée de sujets du système de questions / réponses, une discipline informatique dans les domaines de la recherche d'informations et du traitement du langage naturel - en utilisant l'apprentissage automatique et l'apprentissage en profondeur
Contenu
- Tendances récentes
- À propos de QA
- Événements
- Systèmes
- Concours en QA
- Publications
- Codes
- Conférences
- Diapositives
- Collections de données
- Ensembles de données
- Livres
- Links
Tendances récentes
Modèles de QA récents
- Dilbert: retarder les couches d'interaction dans les encodeurs basés sur les transformateurs pour une réponse efficace sur les questions de domaine ouvert (2020)
- Papier: https://arxiv.org/pdf/2010.08422.pdf
- github: https://github.com/wissam-sib/dilbert
- UnifiedQA: limites de format de traversée avec un seul système QA (2020)
- Demo: https://unifiedqa.apps.allenai.org/
- ProQA: Méthode économe en ressources pour pré-formation un index de corpus dense pour le QA et IR à domaine ouvert. (2020)
- Papier: https://arxiv.org/pdf/2005.00038.pdf
- github: https://github.com/xwhan/proqa
- TYDI QA: Une référence pour les questions de recherche d'informations répondant dans des langues typologiquement diverses (2020)
- Papier: https://arxiv.org/ftp/arxiv/papers/2003/2003.05002.pdf
- Lecteur rétrospectif pour la compréhension de la lecture des machines
- Papier: https://arxiv.org/pdf/2001.09694v2.pdf
- Tanda: Transférer et adapter les modèles de transformateurs pré-formés pour la sélection de la phrase de réponse (AAAI 2020)
- Papier: https://arxiv.org/pdf/1911.04118.pdf
Modèles de langue récents
- Electra: Encodeurs de texte pré-formation comme discriminateurs plutôt que générateurs, Kevin Clark, et al., ICLR, 2020.
- Tinybert: distillant Bert pour la compréhension du langage naturel, Xiaoqi Jiao, et al., ICLR, 2020.
- MINILM: Distillation profonde de l'attention de l'auto-atténuation pour la compression agnostique des tâches des transformateurs pré-formés, Wenhui Wang, et al., Arxiv, 2020.
- T5: Exploration des limites de l'apprentissage par transfert avec un transformateur de texte à texte unifié, Colin Raffel, et al., Arxiv Preprint, 2019.
- Ernie: Représentation du langage améliorée avec entités informatives, Zhengyan Zhang, et al., ACL, 2019.
- XLNET: pré-entraînement autorégressif généralisé pour la compréhension du langage, Zhilin Yang, et al., Arxiv Preprint, 2019.
- Albert: A Lite Bert pour l'apprentissage auto-supervisé des représentations linguistiques, Zhenzhong Lan, et al., Arxiv Preprint, 2019.
- Roberta: une approche de pré-formation de Bert optimisée à optimisation, Yinhan Liu, et al., Arxiv Preprint, 2019.
- Distilbert, une version désastreuse de Bert: plus petite, plus rapide, moins chère et plus légère, Victor Sanh, et al., Arxiv, 2019.
- Spanbert: Amélioration de la pré-formation en représentant et en prédisant les portées, Mandar Joshi, et al., Tacl, 2019.
- Bert: pré-formation des transformateurs bidirectionnels profonds pour la compréhension du langage, Jacob Devlin, et al., NAACL 2019, 2018.
AAAI 2020
- Tanda: Transférer et adapter les modèles de transformateurs pré-formés pour la sélection des phrases de réponse, Siddhant Garg, et al., AAAI 2020, novembre 2019.
ACL 2019
- Aperçu de la tâche partagée Mediqa 2019 sur l'inférence textuelle, le divertissement de questions et la réponse aux questions, Asma Ben Abacha, et al., ACL-W 2019, août 2019.
- Vers des réseaux de capsule évolutifs et fiables pour les applications NLP difficiles, Wei Zhao, et al., ACL 2019, juin 2019.
- Graphique cognitif pour la compréhension de la lecture multi-HOP à l'échelle, Ming Ding, et al., ACL 2019, juin 2019.
- Question du domaine ouvert en temps réel Réponse avec un indice de phrase dense sassis, Minjoon Seo, et al., ACL 2019, juin 2019.
- Question non supervisée Réponse par Cloze Traduction, Patrick Lewis, et al., ACL 2019, juin 2019.
- SEMEVAL-2019 Tâche 10: Math Question Responsering, Mark Hopkins, et al., ACL-W 2019, juin 2019.
- Améliorer la réponse aux questions par rapport aux KB incomplets avec le lecteur conscient des connaissances, Wenhan Xiong, et al., ACL 2019, mai 2019.
- Les paires d'articles de correspondance avec décomposition et convolutions graphiques, Bang Liu, et al., ACL 2019, mai 2019.
- Lecteur de mémoire épisodique: apprendre ce qu'il faut se souvenir pour la réponse aux questions de Streaming Data, Moonsu Han, et al., ACL 2019, mars 2019.
- Questions naturelles: une référence pour la recherche de questions sur les questions, Tom Kwiatkowski, et al., TACL 2019, janvier 2019.
- Question de manuels Réponse avec la compréhension du graphique du contexte multimodal et la compréhension ouverte auto-supervisée, Daesik Kim, et al., ACL 2019, novembre 2018.
EMNLP-IJCNLP 2019
- Modèles linguistiques en tant que bases de connaissances ?, Fabio Petron, et al., EMNLP-IJCNLP 2019, sept. 2019.
- LXMERT: Apprentissage des représentations d'encodeur croisée de transformateurs, Hao Tan, et al., EMNLP-IJCNLP 2019, décembre 2019.
- Répondre aux questions complexes du domaine ouvert par le biais de la génération de requêtes itératives, Peng Qi, et al., EMNLP-IJCNLP 2019, octobre 2019.
- KAGNET: Réseaux de graphiques conscients des connaissances pour le raisonnement de bon sens, Bill Yuchen Lin, et al., EMNLP-IJCNLP 2019, sept. 2019.
- Sélection du contenu du mélange pour une génération de séquences diversifiée, Jaemin Cho, et al., EMNLP-IJCNLP 2019, sept. 2019.
- Une approche discrète dure pour la réponse aux questions faiblement supervisées, Sewon Min, et al., EMNLP-IJCNLP, 2019, sept. 2019.
Arxiv
- Enquêter sur les succès et les échecs de Bert pour le rediffusion du passage, Harshith Padigela, et al., Arxiv Preprint, mai 2019.
- Bert avec histoire répond à l'intégration pour la réponse aux questions conversationnelles, Chen Qu, et al., Arxiv Preprint, mai 2019.
- Comprendre les comportements de Bert dans le classement, Yifan Qiao, et al., Arxiv Preprint, avril 2019.
- Bert post-formation pour la compréhension de la lecture et l'analyse des sentiments basés sur l'aspect, Hu Xu, et al., Arxiv Preprint, avril 2019.
- Question de bout en bout à un domaine ouvert répondant avec Bertserini, Wei Yang, et al., Arxiv Preprint, février 2019.
- Une ligne de base Bert pour les questions naturelles, Chris Alberti, et al., Arxiv Preprint, janvier 2019.
- Passage Re-Ranking With Bert, Rodrigo Nogueira, et al., Arxiv Preprint, janvier 2019.
- SDNET: Réseau profondément basé sur l'attention contextualisé pour la réponse aux questions conversationnelles, Cheng Zhu, et al., Arxiv, déc 2018.
Ensemble de données
- ELI5: Question longue réponse, Angela Fan, et al., ACL 2019, juillet 2019
- CODAH: Une question à l'égalité de l'adversarion répondant à un ensemble de données pour le bon sens, Michael Chen, et al., REPEVAL 2019, juin 2019.
À propos de QA
Types de QA
- QA à un seul tour: réponse sans considérer de contexte
- QA conversationnel: utilisez des tours de conversation précédents
Sous-types de QA
- QA basé sur les connaissances
- QA basé sur la table / liste
- QA basé sur le texte
- QA communautaire
- QA visuel
Analyse et analyse pour le prétraitement dans les systèmes QA
Analyse des lanugages
- Analyse morphologique
- Reconnaissance de l'entité nommée (NER)
- Analyse des homonymes / polysémes
- Analyse syntaxique (analyse de dépendance)
- Reconnaissance sémantique
La plupart des systèmes QA ont environ 3 parties
- Extraction des faits
- Extraction entité
- Reconnaissance de l'entité nommée (NER)
- Extraction de relation
- Comprendre la question
- Générer une réponse
Événements
- Wolfram Alpha a raccroché le moteur de réponse en 2009.
- IBM Watson System a battu Top Jeopardy! Champions en 2011.
- Siri d'Apple a intégré le moteur de réponse de Wolfram Alpha en 2011.
- Google a intégré QA en lançant son graphique de connaissances, tirant parti de la base de connaissances de base gratuite en 2012.
- Amazon Echo | Alexa (2015), Google Home | Google Assistant (2016), Invoke | Mme Cortana (2017), Homepod (2017)
Systèmes
- IBM Watson - a des performances ultramodernes.
- Facebook DRQA - Appliqué à l'ensemble de données Squad1.0. L'ensemble de données Squad2.0 a publié. Mais DRQA n'est pas encore testé.
- Le graphique de connaissances du MIT Media Lab - est un réseau sémantique librement disponible, conçu pour aider les ordinateurs à comprendre la signification des mots que les gens utilisent.
Concours en QA
| Ensemble de données | Langue | Organisateur | Depuis | Rang supérieur | Modèle | Statut | Sur la performance humaine |
|---|
| 0 | Test de cloze d'histoire | Anglais | Univ. de Rochester | 2016 | MSAP | Régression logistique | Fermé | x |
| 1 | Mme Marco | Anglais | Microsoft | 2016 | Yuanfudao Research NLP | MARS | Fermé | o |
| 2 | Mme Marco V2 | Anglais | Microsoft | 2018 | NTT Media Intelli. Laboratoire. | Style de questions et réponses masque | Ouvert | x |
| 3 | Équipe | Anglais | Univ. de Stanford | 2018 | Xlnet (modèle unique) | Équipe XLNET | Fermé | o |
| 4 | Escouade 2.0 | Anglais | Univ. de Stanford | 2018 | Pingan omni-sinitique | Albert + Daaf + Vérificateur (Ensemble) | Ouvert | o |
| 5 | Triviaqa | Anglais | Univ. de Washington | 2017 | Ming Yan | - | Fermé | - |
| 6 | décanler | Anglais | Salesforce Research | 2018 | Salesforce Research | Mqan | Fermé | x |
| 7 | DureReder Ver1. | Chinois | Baidu | 2015 | Essai | En T-leader (célibataire) | Fermé | x |
| 8 | DureReder Ver2. | Chinois | Baidu | 2017 | Renaissance | Arereader | Ouvert | - |
| 9 | Korquad | coréen | LG CNS AI Research | 2018 | Équipe CLOVA AI LARVA | Larve-kor-large + + claf (single) | Fermé | o |
| 10 | Korquad 2.0 | coréen | LG CNS AI Research | 2019 | Université nationale de Kangwon | Knu-Baseline (modèle unique) | Ouvert | x |
| 11 | Coqa | Anglais | Univ. de Stanford | 2018 | Technologie Zhuiyi | Roberta + AT + KD (Ensemble) | Ouvert | o |
Publications
- Papiers
- "Apprendre à parcourir le texte", Adams Wei Yu, Hongrae Lee, Quoc V. Le, 2017 .: Montrez uniquement ce que vous voulez dans le texte
- "Disony Entity Disambiguation avec l'attention neuronale locale", Octavian-Eugen Ganea et Thomas Hofmann, 2017.
- "Écoulement attentif bidirectionnel pour la compréhension des machines", Minjoon SEO, Aniruddha Kembhavi, Ali Farhadi, Hananneh Hajishirzi, ICLR, 2017.
- "Capturer la similitude sémantique pour les entités liées aux réseaux de neurones convolutionnels", Matthew Francis-Landau, Greg Durrett et Dan Klei, Naacl-HLT 2016.
- https://github.com/matthewfl/nlp-entity-convnet
- "Entité liée à une base de connaissances: problèmes, techniques et solutions", Wei Shen, Jianyong Wang, Jiwei Han, IEEE Transactions on Knowledge and Data Engineering (TKDE), 2014.
- "Introduction à" This is Watson ", IBM Journal of Research and Development, Da Ferrucci, 2012.
- "Une enquête sur les questions répondant à la technologie du point de vue de la récupération de l'information", Information Sciences, 2011.
- "Question Réponse dans les domaines restreints: un aperçu", Diego Mollá et José Luis Vicedo, Computational Linguistics, 2007
- "Question du langage naturel Réponse: la vue d'ici", L Hirschman, R Gaizauskas, Natural Language Engineering, 2001.
- Disambigation / liaison d'entité d'entité
Codes
- Le réseau de flux d'attention bidirectionnel (BIDAF) BIDAF est un processus hiérarchique à plusieurs étapes qui représente le contexte à différents niveaux de granularité et utilise un mécanisme de flux d'attention bidirectionnel pour obtenir une représentation de contexte de la requête sans résumé précoce.
- Officiel; Tensorflow v1.2
- Papier
- Qanet - Une architecture de questions-réponses ne nécessite pas de réseaux récurrents: son encodeur se compose exclusivement de convolution et d'auto-agence d'auto-agence, où les modèles de convolution interactions locales et les modèles d'auto-agencement interactions globales.
- Google; Non officiel; Tensorflow v1.5
- Papier
- R-net - un modèle de réseaux de neurones de bout en bout pour la réponse à la question de la compréhension de la lecture, qui vise à répondre aux questions d'un passage donné.
- MS; Officieusement par HKUST; Tensorflow v1.5
- Papier
- R-net-in-keras - réimplémentation R-net dans Keras.
- MS; Non officiel; Keras v2.0.6
- Papier
- DRQA - DRQA est un système de compréhension en lecture appliquée à la réponse aux questions du domaine ouvert.
- Facebook; Officiel; Pytorch v0.4
- Papier
- Bert - Un nouveau modèle de représentation linguistique qui signifie Bidirectional Encoder Representations de Transformers. Contrairement aux modèles de représentation du langage récents, Bert est conçu pour pré-entraîner les représentations de vélo profondes en conditionnant conjointement sur le contexte gauche et droit dans toutes les couches.
- Google; Mise en œuvre officielle; TensorFlow v1.11.0
- Papier
Conférences
- Question Réponse - Traitement du langage naturel - par Dragomir Radev, Ph.D. | Université du Michigan | 2016.
Diapositives
- Question répondant avec des bases de connaissances, Web et au-delà - par Scott Wen-Tau Yih & Hao Ma | Microsoft Research | 2016.
- Question Répondre - par le Dr Mariana Neves | Hasso Plattner Institut | 2017.
Collections de données
- Question de Nliwod répondant aux ensembles de données
- Les ensembles de données de Karthinkncode pour le traitement du langage naturel
Ensembles de données
- AI2 Science Questions v2.1 (2017)
- Il se compose de questions utilisées dans les évaluations des élèves aux États-Unis à travers les niveaux primaire et intermédiaire. Chaque question est un format à choix multiple à 4 voies et peut ou non inclure un élément de diagramme.
- Papier: http://ai2-website.s3.amazonaws.com/publications/ai2reasoningChallenge2018.pdf
- Test de livre pour enfants
- C'est l'un des projets BABI de la recherche sur l'IA de Facebook qui est organisé vers l'objectif de la compréhension et du raisonnement automatique du texte. Le CBT est conçu pour mesurer directement dans quelle mesure les modèles de langage peuvent exploiter un contexte linguistique plus large.
- Ensemble de données Codah
- Ensemble de données DeepMind Q&A; CNN / Daily Mail
- Hermann et al. (2015) ont créé deux ensembles de données impressionnants en utilisant des articles de presse pour des recherches sur les questions et réponses. Chaque ensemble de données contient de nombreux documents (90k et 197k chacun), et chaque document de document en moyenne 4 questions approximativement. Chaque question est une phrase avec un mot / phrase manquant qui peut être trouvé à partir du document / contexte d'accompagnement.
- Papier: https://arxiv.org/abs/1506.03340
- Eli5
- Papier: https://arxiv.org/abs/1907.09190
- GraphQuertions
- Sur la génération d'ensembles de questions riches en caractéristiques pour l'évaluation de l'AQ.
- LC-Quad
- Il s'agit d'un ensemble de données KBQA (question de réponse à la base de connaissances) contenant 5000 questions et requêtes SPARQL. LC-Quad utilise DBpedia V04.16 comme KB cible.
- Mme Marco
- C'est pour la réponse à des questions réelles.
- Papier: https://arxiv.org/abs/1611.09268
- Multicolore
- Un ensemble de données de paragraphes courts et de questions multi-phrases
- Papier: http://cogcomp.org/page/publication_view/833
- Narrativeqa
- Il comprend la liste des documents avec des résumés Wikipedia, des liens vers des histoires complètes et des questions et réponses.
- Papier: https://arxiv.org/pdf/1712.07040v1.pdf
- Newsqa
- Un ensemble de données de compréhension de la machine
- Papier: https://arxiv.org/pdf/1611.09830.pdf
- Ensemble de données Qestion-Answer par CMU
- Il s'agit d'un corpus d'articles Wikipedia, de questions factoïdes générées manuellement et de réponses générées manuellement à ces questions, pour une utilisation dans la recherche académique. Ces données ont été collectées par Noah Smith, Michael Heilman, Rebecca HWA, Shay Cohen, Kevin Gimpel et de nombreux étudiants de l'Université Carnegie Mellon et de l'Université de Pittsburgh entre 2008 et 2010.
- Squad1.0
- La question de la question de Stanford répondant à un ensemble de données (Squad) est un ensemble de données de compréhension en lecture, composé de questions posées par des travailleurs de mi-temps sur un ensemble d'articles de Wikipedia, où la réponse à chaque question est un segment de texte, ou de portée, du passage de lecture correspondant, ou de la question pourrait être incomparable.
- Papier: https://arxiv.org/abs/1606.05250
- Squad2.0
- Squad2.0 combine les 100 000 questions dans Squad1.1 avec plus de 50 000 nouvelles questions sans réponse écrites adversarialement par les travailleurs de la présentation pour ressembler à ceux qui répondent. Pour bien faire sur Squad2.0, les systèmes doivent non seulement répondre aux questions lorsque cela est possible, mais aussi déterminer quand aucune réponse n'est soutenue par le paragraphe et s'abstenir de répondre.
- Papier: https://arxiv.org/abs/1806.03822
- Test de cloze d'histoire
- «Story Cloze Test» est un nouveau cadre de raisonnement de bon sens pour évaluer la compréhension de l'histoire, la génération d'histoire et l'apprentissage des scripts. Ce test nécessite un système pour choisir la bonne fin à une histoire de quatre phrases.
- Papier: https://arxiv.org/abs/1604.01696
- Triviaqa
- Triviaqa est un ensemble de données de compréhension en lecture contenant plus de 650 000 triples de preuves de questions-réponses. Triviaqa comprend 95 000 paires de réponses aux questions rédigées par des amateurs de Trivia et des documents de preuve recueillis indépendamment, six par question en moyenne, qui offre une supervision lointaine de haute qualité pour répondre aux questions.
- Papier: https://arxiv.org/abs/1705.03551
- Wikiqa
- Un ensemble de questions et de phrases accessibles au public pour répondre aux questions du domaine ouvert.
L'équipe de recherche Deepqa dans la publication d'IBM Watson dans les 5 ans
- 2015
- "Génération automatisée de la liste des problèmes à partir des dossiers médicaux électroniques dans IBM Watson", Murthy Devarakonda, Ching-Huei Tsou, Iaai, 2015.
- "Prise de décision dans IBM Watson Question répondant", J. William Murdock, Ontology Summit, 2015.
- "Analyse non surveillée de la rellation des entités dans IBM Watson", Aditya Kalyanpur, J William Murdock, ACS, 2015.
- "Reason de bon sens: une approche basée sur le calcul d'événements", et Mueller, Morgan Kaufmann / Elsevier, 2015.
- 2014
- "Résumé des dossiers des patients axés sur les problèmes: un rapport précoce sur une application Watson", M. Devarakonda, Dongyang Zhang, Ching-Huei Tsou, M. Bornea, Healthcom, 2014.
- "WatsonPaths: Question basée sur le scénario Réponse et inférence sur les informations non structurées", Adam Lally, Sugato Bachi, Michael A. Barborak, David W. Buchanan, Jennifer Chu-Carroll, David A. Ferrucci *, Michael R. Glass, Aditya Kalyanpur, Erik T. Mueller, J. William Murdock, Siddharthart Welty, IBM Research Report RC25489, 2014.
- "Extraction des relations médicales avec modèles de collecteur", Chang Wang et James Fan, ACL, 2014.
Publication de Mme Research dans les 5 ans
- 2018
- "Caracter et soutenir la réponse aux questions dans la communication humaine à humaine", Xiao Yang, Ahmed Hassan Awadallah, Maddian Khabsa, Wei Wang, Miaosen Wang, ACM Sigir, 2018.
- "Figureqa: un ensemble de données annoté pour le raisonnement visuel", Samira Ebrahimi Kahou, Vincent Michalski, Adam Atkinson, Akos Kadar, Adam Trischler, Yoshua Bengio, ICLR, 2018
- 2017
- "Réseaux d'attention à plusieurs niveaux pour répondre à des questions visuelles", Dongfei Yu, Jianlong Fu, Tao Mei, Yong Rui, CVPR, 2017.
- "Un modèle conjoint pour la réponse aux questions et la génération de questions", Tong Wang, Xingdi (Eric) Yuan, Adam Trischler, ICML, 2017.
- "Réseaux de synthèse en deux étapes pour l'apprentissage du transfert dans la compréhension des machines", David Golub, PO-Sen Huang, Xiaodong He, Li Deng, EMNLP, 2017.
- "Question-réponse avec des représentations grammaticalement-interprétables", Hamid Palangi, Paul Smolensky, Xiaodong He, Li Deng,
- "Apprentissage structuré neuronal basé sur la recherche pour répondre à des questions séquentielles", Mohit Iyyer, Wen-Tau Yih, Ming-Wei Chang, ACL, 2017.
- 2016
- "Réseaux d'attention empilés pour la réponse aux questions d'image", Zichao Yang, Xiaodong He, Jianfeng Gao, Li Deng, Alex Smola, CVPR, 2016.
- "Question répondant avec la base de connaissances, Web and Beyond", Yih, Scott Wen-Tau et Ma, Hao, ACM Sigir, 2016.
- "Newsqa: un ensemble de données de compréhension de la machine", Adam Trischler, Tong Wang, Xingdi Yuan, Justin Harris, Alessandro Sordoni, Philip Bachman, Kaheer Suleman, REP4NLP, 2016.
- "Table Cell Search for Question répondant", Sun, Huan et Ma, Hao et lui, Xiaodong et Yih, Wen-Tau et Su, Yu et Yan, Xifeng, www, 2016.
- 2015
- "Wikiqa: un ensemble de données de défi pour la réponse aux questions du domaine ouvert", Yi Yang, Wen-Tau Yih et Christopher Meek, EMNLP, 2015.
- "Question sur le Web Réponse: revisiter Askmsr", Chen-TSE Tsai, Wen-Tau Yih et Christopher JC Burges, MSR-TR, 2015.
- "Question ouverte de domaine répondant via un enrichissement sémantique", Huan Sun, Hao MA, Wen-Tau Yih, Chen-Tse Tsai, Jingjing Liu et Ming-Wei Chang, WWW, 2015.
- 2014
- "Un aperçu du système de QA Microsoft Deep sur Benchmark Stanford WebQuestions", Zhenghao Wang, Shengquan Yan, Huaming Wang et Xuedong Huang, MSR-TR, 2014.
- "Analyse sémantique pour répondre à des questions à relier", Wen-Tau Yih, Xiaodong He, Christopher Meek, ACL, 2014.
La publication de Google AI dans les 5 ans
- 2018
- Google QA
- "Qanet: combinant la convolution locale avec l'auto-agence d'auto-agence mondiale pour la compréhension de la lecture", Adams Wei Yu, David Dohan, Minh-Thang Luong, Rui Zhao, Kai Chen, Mohammad Norouzi, Quoc V. LE, ICLR, 2018.
- "Posez les bonnes questions: reformulation de questions actives avec apprentissage par renforcement", Christian Buck et Jannis Bulian et Massimiliano Ciaramita et Wojciech Paweł Gajewski et Andrea Gesmundo et Neil Houlsby et Wei Wang, ICLR, 2018.
- "Construire des ensembles de données de compréhension de lecture de machines à l'aide de vecteurs de paragraphe", Radu Soricut, Nan Ding, 2018.
- Représentation de phrase
- "Un cadre efficace pour l'apprentissage des représentations de phrases", Lajanugen Logeswaran, Honglak Lee, ICLR, 2018.
- "Le modèle a-t-il compris la question?", Pramod K. Mudrakarta et Ankur Taly et Mukund Sundararajan et Kedar Dhamdhere, ACL, 2018.
- 2017
- "Analyser la langue apprise par un agent de réponse de questions actif", Christian Buck et Jannis Bulian et Massimiliano Ciaramita et Wojciech Gajewski et Andrea Gesmundo et Neil Houlsby et Wei Wang, Nips, 2017.
- "Apprentissage des représentations récurrentes de la réponse à des questions extractives", Kenton Lee et Salimi Salant et Tom Kwiatkowski et Ankur Parikh et Dipanjan Das et Jonathan Berant, ICLR, 2017.
- Identifiez la même question
- "Identification de paraphrase neurale des questions avec prélèvement bruyant", Gaurav Singh Tomar et Thyago Duque et Oscar Täckström et Jakob Uszkoreit et Dipanjan Das, Sclem, 2017.
- 2014
- "Great Question! Qualité des questions dans la communauté Q&R", Sujith Ravi et Bo Pang et Vibhor Rastogi et Ravi Kumar, ICWSM, 2014.
Publication de Facebook AI Research dans les 5 ans
- 2018
- Réponse de question incarnée, Abhishek Das, Samyak Datta, Georgia Gkioxari, Stefan Lee, Devi Parikh et Dhruv Batra, CVPR, 2018
- Les explications rendent-elles les modèles VQA plus prévisibles pour un humain?, Arjun Chandrasekaran, Viraj Prabhu, Deshraj Yadav, Prithvijit Chattopadhyay et Devi Parikh, EMNLP, 2018
- Sémantique de dénotation de composition neurale pour la réponse aux questions, Nitish Gupta, Mike Lewis, EMNLP, 2018
- 2017
- Drqa
- Lire Wikipedia pour répondre aux questions du domaine ouvert, Danqi Chen, Adam Fisch, Jason Weston & Antoine Bordes, ACL, 2017.
Livres
- Question sur le langage naturel Réponse du système de réponse - Boris Galitsky (2003)
- Nouvelles directions en question Réponse - Mark T. Maybury (2004)
- Partie 3. 5. Question Réponse dans le Handbook Oxford Handbook of Computational Linguistics - Sanda Harabagiu et Dan Moldovan (2005)
- Chap.28 Question Réponse dans le traitement de la parole et du langage - Daniel Jurafsky et James H. Martin (2017)
Links
- Construire un système de réponse aux questions à partir de zéro - Partie 1
- Qeustion répondant avec Tensorflow par Steven Hewitt, O'Reilly, 2017
- Pourquoi la réponse à la question est difficile
Contributif
Les contributions sont la bienvenue! Lisez d'abord les directives de contribution.
Licence
Dans la mesure du possible en vertu de la loi, SerialMac (le responsable) a renoncé à tous les droits d'auteur et aux droits connexes ou voisins de ce travail.