Tolle Frage Beantwortung
Eine kuratierte Liste der Fragen zur Beantwortung von Fragen (QA) , die eine Informatik -Disziplin in den Bereichen Informationsabruf und natürliche Sprachverarbeitung (NLP) für die Verwendung maschineller Lernen und Deep -Lernen darstellt
정보검색및자연언어처리분아야의질의응답에관한큐레이션- 머신러닝과딥러닝단계까지
Eine ausgewählte Liste von Q & A -Systemthemen, eine Informatik -Disziplin in den Bereichen Informationsabruf und Verarbeitung natürlicher Sprache - unter Verwendung maschineller Lernen und Deep -Lernen
Inhalt
- Jüngste Trends
- Über QA
- Ereignisse
- Systeme
- Wettbewerbe in QA
- Veröffentlichungen
- Codes
- Vorträge
- Folien
- Datensatzsammlungen
- Datensätze
- Bücher
- Links
Jüngste Trends
Neuere QA -Modelle
- DILBERT: Verzögerung von Interaktionsebenen in transformatorbasierten Encodern für effiziente Fragen zur Beantwortung offener Domäne (2020)
- Papier: https://arxiv.org/pdf/2010.08422.pdf
- Github: https://github.com/wissam-sib/dilbert
- UnifiedQA: Überqueren der Formatgrenzen mit einem einzigen QA -System (2020)
- Demo: https://unifiedqa.apps.allenai.org/
- ProQA: Ressourceneffizientes Verfahren zur Vorbereitung eines dichten Corpus-Index für die Open-Domain-QA und IR. (2020)
- Papier: https://arxiv.org/pdf/2005.00038.pdf
- Github: https://github.com/xwhan/proqa
- Tydi QA: Ein Benchmark für Informationssuchfragebestellungen in typologisch unterschiedlichen Sprachen (2020)
- Papier: https://arxiv.org/ftp/arxiv/papers/2003/2003.05002.pdf
- Retrospektiver Leser für das Leseverständnis des Maschine
- Papier: https://arxiv.org/pdf/2001.09694v2.pdf
- Tanda: Vorausgebildete Transformatormodelle für die Auswahl der Antwortsätze übertragen und anpassen (AAAI 2020)
- Papier: https://arxiv.org/pdf/1911.04118.pdf
Neuere Sprachmodelle
- Electra: Kevin Clark, et al., ICLR, 2020.
- Tinybert: Destillieren Bert für das Verständnis für natürliches Sprache, Xiaoqi Jiao et al., ICLR, 2020.
- Minilm: Tiefe Selbstbekämpfungsdestillation für die aufgabenagnostische Komprimierung von vorgeborenen Transformatoren, Wenhui Wang, et al., Arxiv, 2020.
- T5: Erforschung der Grenzen des Transferlernens mit einem einheitlichen Text-zu-Text-Transformator, Colin Raffel et al., Arxiv Preprint, 2019.
- Ernie: Verbesserte Sprachdarstellung mit informativen Einheiten, Zhengyan Zhang, et al., ACL, 2019.
- XLNET: Verallgemeinerte autoregressive Vorbereitung für das Sprachverständnis, Zhilin Yang, et al., Arxiv Preprint, 2019.
- Albert: Ein Lite Bert für das selbstbewertete Lernen von Sprachdarstellungen, Zhenzhong Lan et al., Arxiv Preprint, 2019.
- Roberta: Ein robust optimierter Ansatz von Bert, Yinhan Liu, et al., Arxiv Preprint, 2019.
- Distilbert, eine ungewöhnliche Version von Bert: kleiner, schneller, billiger und leichter, Victor Sanh et al., Arxiv, 2019.
- Spanbert: Mandar Joshi, et al., Tacl, 2019, Verbesserung der Vorausbildung durch Vertretung und Vorhersage von Spannweiten.
- Bert: Vorausbildung von tiefen bidirektionalen Transformatoren für das Sprachverständnis, Jacob Devlin, et al., Naacl 2019, 2018.
AAAI 2020
- Tanda: Vorausgebildete Transformatormodelle zur Auswahl der Antwortsätze übertragen und anpassen, Siddhant Garg et al., AAAI 2020, November 2019.
ACL 2019
- Überblick über die gemeinsame Aufgabe von Mediqa 2019 zu textuellen Inferenz-, Frage-Unterhaltung- und Fragenbeantwortung, Asma Ben Abacha et al., ACL-W 2019, August 2019.
- Wei Zhao et al., ACL 2019, Jun 2019.
- Kognitiver Diagramm für das Multi-Hop-Leseverständnis in Skala, Ming Ding et al., ACL 2019, Jun 2019.
- Echtzeit-Fragen zur Beantwortung von Open-Domain-Frage mit dem Phrase-Index des Denspars, Minjoon SEO, et al., ACL 2019, Jun 2019.
- Unbewegte Frage, die durch Cloze -Übersetzung beantwortet wurde, Patrick Lewis et al., ACL 2019, Jun 2019.
- Semeval-2019 Aufgabe 10: Mathematik Frage Antwort, Mark Hopkins et al., ACL-W 2019, Jun 2019.
- Verbesserung der Fragen zur Beantwortung unvollständiger KBs mit wissensbedingtem Leser Wenhan Xiong et al., ACL 2019, Mai 2019.
- Matching -Artikelpaare mit grafischer Zerlegung und Konvolutionen, Bang Liu et al., ACL 2019, Mai 2019.
- Episodic Memory Reader: Lernen Sie, woran man sich erinnern kann, um die Frage zu beantworten, wie sie aus Streaming -Daten beantworten sollten, Moonsu Han et al., ACL 2019, März 2019.
- Natürliche Fragen: Tom Kwiatkowski et al., TACL 2019, Januar 2019, ein Maßstab für die Beantwortung von Fragen zur Beantwortung von Forschung.
- Lehrbuchfrage Beantwortung mit multimodalem Kontext-Diagrammverständnis und selbstverständlichem Open-Set-Verständnis, Daesik Kim, et al., ACL 2019, Nov 2018.
EMNLP-IJCNLP 2019
- Sprachmodelle als Wissensbasis?, Fabio Petron, et al., EMNLP-IJCNLP 2019, September 2019.
- LXMERT: Lernen von Cross-Modality-Encoder-Repräsentationen von Transformers, Hao Tan et al., EMNLP-IJCNLP 2019, Dezember 2019.
- Beantwortung komplexer Fragen mit offener Domäne durch iterative Abfragegenerierung, Peng Qi, et al., EMNLP-IJCNLP 2019, Oktober 2019.
- KAGNET: Wissensbekanntes Graph-Netzwerke für Commonsense-Argumentation, Bill Yuchen Lin et al., EMNLP-IJCNLP 2019, September 2019.
- Auswahl der Mischinhalte für eine vielfältige Sequenzgenerierung, Jaemin Cho, et al., EMNLP-IJCNLP 2019, September 2019.
- Ein diskreter Hard-EM-Ansatz für die schwach überwachte Fragenbeantwortung, Sewon Min, et al., EMNLP-IJCNLP, 2019, September 2019.
Arxiv
- Untersuchung der Erfolge und Misserfolge von Bert für die Wiederaufnahme von Durchgangsrangern, Harshith Padigela et al., Arxiv Preprint, Mai 2019.
- BERT WITH HISTORY ANTWORT INTREPTUNG FÜR DEN EINWEISSATIONEN ANTWORTEN, CHEN QUT, ET AL., ARXIV PREPRINT, Mai 2019.
- Yifan Qiao et al., Arxiv Preprint, Apr 2019, das Verhalten von Bert im Ranking verstehen.
- Bert Post-Training zum Überprüfen des Leseverständnisses und der Aspekt-basierten Stimmungsanalyse, Hu Xu, et al., Arxiv Preprint, Apr 2019.
- End-to-End-Fragen zur Beantwortung von Beantwortung von Bertserini, Wei Yang, et al., Arxiv Preprint, Februar 2019.
- Eine Bert -Grundlinie für die natürlichen Fragen, Chris Alberti, et al., Arxiv Preprint, Januar 2019.
- Passage erneut mit Bert, Rodrigo Nogueira et al., Arxiv Preprint, Januar 2019.
- SDNET: Kontextualisierte aufmerksamkeitsbasierte Deep-Netzwerke für die Beantwortung von Konversationsfragen, Cheng Zhu et al., Arxiv, Dezember 2018.
Datensatz
- ELI5: Langform -Fragebeantwortung, Angela Fan et al., ACL 2019, Jul 2019
- Codah: Ein kontrovers ausgefeilter Frage, der den Datensatz für den gesunden Menschenverstand beantwortet, Michael Chen et al., Repeval 2019, Jun 2019.
Über QA
Arten von QA
- Single-Turn-QA: Antwort ohne einen Kontext zu berücksichtigen
- Konversations -QA: Verwenden Sie vorherige Konversationswendungen
Subtypen der QA
- Wissensbasierte QA
- Tabelle/Listenbasierte QA
- Textbasierte QA
- Community-basierte QA
- Visuelle QA
Analyse und Parsen für die Vorverarbeitung in QA-Systemen
Lanugage -Analyse
- Morphologische Analyse
- Genannte Entitätserkennung (NER)
- Homonyme / Polysemieanalyse
- Syntaktische Parsen (Abhängigkeits -Parsen)
- Semantische Anerkennung
Die meisten QA -Systeme haben ungefähr 3 Teile
- Faktenextraktion
- Entitätsextraktion
- Anerkennung mit benannter Entfernung (NER)
- Beziehungsextraktion
- Die Frage verstehen
- Eine Antwort generieren
Ereignisse
- Wolfram Alpha legte 2009 den Antwortmotor auf.
- IBM Watson System besiegte die Top -Gefahr! Champions im Jahr 2011.
- Apples Siri Integrated Wolfram Alphas Antwortmotor im Jahr 2011.
- Google hat die QA eingebettet, indem er seine Wissensgrafik startete und die kostenlose Basis -Wissensbasis im Jahr 2012 nutzt.
- Amazon Echo | Alexa (2015), Google Home | Google Assistant (2016), Invoke | Frau Cortana (2017), HomePod (2017)
Systeme
- IBM Watson-hat hochmoderne Leistung.
- Facebook DRQA - Angewendet auf den Datensatz Squad1.0. Der Squad2.0 -Datensatz hat veröffentlicht. Aber DRQA wird noch nicht getestet.
- Das Wissensdiagramm von MIT Media Lab - ist ein frei verfügbares semantisches Netzwerk, das Computern helfen soll, die Bedeutungen von Wörtern zu verstehen, die Menschen verwenden.
Wettbewerbe in QA
| Datensatz | Sprache | Veranstalter | Seit | Top Rang | Modell | Status | Über menschliche Leistung |
|---|
| 0 | Story Cloze Test | Englisch | Univ. von Rochester | 2016 | MSAP | Logistische Regression | Geschlossen | X |
| 1 | Frau Marco | Englisch | Microsoft | 2016 | Yuanfudao Research NLP | MARS | Geschlossen | O |
| 2 | Frau Marco v2 | Englisch | Microsoft | 2018 | NTT Media Intelli. Labor. | Masque Q & A Style | Geöffnet | X |
| 3 | Kader | Englisch | Univ. von Stanford | 2018 | XLNET (Einzelmodell) | XLNET -Team | Geschlossen | O |
| 4 | Kader 2.0 | Englisch | Univ. von Stanford | 2018 | Pingan Omni-Sinitic | Albert + DAAF + Verifier (Ensemble) | Geöffnet | O |
| 5 | Triviaqa | Englisch | Univ. von Washington | 2017 | Ming Yan | - - | Geschlossen | - - |
| 6 | decanlp | Englisch | Salesforce -Forschung | 2018 | Salesforce -Forschung | Mqan | Geschlossen | X |
| 7 | Dureader Ver1. | chinesisch | Baidu | 2015 | Tryer | T-Reader (Single) | Geschlossen | X |
| 8 | Dureader Ver2. | chinesisch | Baidu | 2017 | Renaissance | Alireader | Geöffnet | - - |
| 9 | Korquad | Koreanisch | LG CNS AI -Forschung | 2018 | Clova ai Larve Team | Larva-kor-large + + claf (Single) | Geschlossen | O |
| 10 | Korquad 2.0 | Koreanisch | LG CNS AI -Forschung | 2019 | Kangwon National University | Knu-Baseline (Einzelmodell) | Geöffnet | X |
| 11 | Coqa | Englisch | Univ. von Stanford | 2018 | Zhuiyi -Technologie | Roberta + AT + KD (Ensemble) | Geöffnet | O |
Veröffentlichungen
- Papiere
- "Lernen, Text zu überfliegen", Adams Wei Yu, Honongrae Lee, Quoc V. Le, 2017.: Zeigen Sie nur, was Sie in Text wollen, was Sie wollen
- "Deep Joint Unity Disambiguation mit lokaler neuronaler Aufmerksamkeit", Octavian-Ögen Ganea und Thomas Hofmann, 2017.
- "Bidirektionaler Aufmerksamkeitfluss für das Maschinenverständnis", Minjoon Seo, Aniruddha Kembhavi, Ali Farhadi, Hananneh Hajishirzi, ICLR, 2017.
- "Erfassen der semantischen Ähnlichkeit für Entität, die sich mit Faltungsnetzwerken verknüpfen", Matthew Francis-Landau, Greg Durrett und Dan Klei, Naacl-HLT 2016.
- https://github.com/matthewfl/nlp-entity-convnet
- "Entität, die mit einer Wissensbasis verknüpft ist: Themen, Techniken und Lösungen", Wei Shen, Jianyong Wang, Jiawei Han, IEEE -Transaktionen zu Wissens- und Daten Engineering (TKDE), 2014.
- "Einführung in" This is Watson ", IBM Journal of Research and Development, Da Ferrucci, 2012.
- "Eine Umfrage zur Beantwortung von Technologien aus der Information Abrufs", Information Sciences, 2011.
- "Frage, die in eingeschränkten Domänen beantwortet werden: Ein Überblick", Diego Mollá und José Luis Vicedo, Computational Linguistics, 2007
- "Natürliche Sprachfrage Beantwortung: Die Aussicht von hier", L Hirschman, R Gaizauskas, Natural Language Engineering, 2001.
- Entitäts -Disambiguation / Entitätsverbindung
Codes
- BIDAF-BIDirektionales Aufmerksamkeitsfluss (BIDAF) -Netzwerk ist ein mehrstufiger hierarchischer Prozess, der den Kontext auf verschiedenen Granularitätsniveaus darstellt und den bidirektionalen Aufmerksamkeitsflussmechanismus verwendet, um eine Abfrage-bewusstes Kontextdarstellung ohne frühzeitige Zusammenfassung zu erhalten.
- Offiziell; Tensorflow v1.2
- Papier
- QANET-Eine Q & A-Architektur erfordert keine rezidivierenden Netzwerke: Ihr Encoder besteht ausschließlich aus Faltung und Selbstbekämpfung, wo Faltungsverkäufer lokale Interaktionen und Selbstbekämpfung globaler Interaktionen modelliert.
- Google; Inoffiziell; Tensorflow v1.5
- Papier
- R-NET-Ein End-to-End-Modell für neuronale Netze zur Beantwortung von Fragen zum Leseverständnisstil, das die Beantwortung von Fragen aus einer bestimmten Passage beantworten soll.
- MS; Inoffiziell von Hkust; Tensorflow v1.5
- Papier
- R-net-in-keras-R-Net-Neuauflagen in Keras.
- MS; Inoffiziell; Keras v2.0.6
- Papier
- DRQA - DRQA ist ein System für das Leseverständnis, das für die Beantwortung von Fragen zum Open -Domain -Fragen angewendet wird.
- Facebook; Offiziell; Pytorch v0.4
- Papier
- BERT - Ein neues Sprachrepräsentationsmodell, das für bidirektionale Encoder -Darstellungen von Transformatoren steht. Im Gegensatz zu den aktuellen Sprachrepräsentationsmodellen ist Bert so ausgelegt, dass sie tiefe Fahrraddarstellungen vor dem Training vorhanden, indem sie in allen Schichten gemeinsam auf dem linken und rechten Kontext konditioniert werden.
- Google; Offizielle Umsetzung; Tensorflow v1.11.0
- Papier
Vorträge
- Frage Beantwortung - Verarbeitung natürlicher Sprache - von Dragomir Radev, Ph.D. | Universität von Michigan | 2016.
Folien
- Frage Beantwortung mit Wissensbasen, Web und darüber hinaus - von Scott Wen -Tau Yih & Hao Ma | Microsoft Research | 2016.
- Frage Beantwortung - von Dr. Mariana Neves | Hasso Plattner Institut | 2017.
Datensatzsammlungen
- NLIWODs Frage, die Datensätze beantworten
- Die Datensätze von Karthinkncode für die Verarbeitung natürlicher Sprache
Datensätze
- AI2 Science Fragen v2.1 (2017)
- Es besteht aus Fragen, die in den Vereinigten Staaten in den USA in der Grund- und Mittelschulklassenstufe verwendet werden. Jede Frage ist 4-Wege-Multiple-Choice-Format und kann ein Diagrammelement enthalten oder nicht.
- Papier: http://ai2-website.s3.amazonaws.com/publications/ai2reasoningChallenge2018.pdf
- Kinderbuchtest
- Es ist eines der BABI -Projekte der Facebook -AI -Forschung, das sich auf das Ziel des automatischen Textverständnisses und der Argumentation des Textes organisiert. Das CBT soll direkt messen, wie gut Sprachmodelle einen breiteren sprachlichen Kontext ausnutzen können.
- Codah -Datensatz
- DeepMind Q & A -Datensatz; CNN/Daily Mail
- Hermann et al. (2015) haben zwei großartige Datensätze mit Nachrichtenartikeln für Q & A -Forschung erstellt. Jeder Datensatz enthält viele Dokumente (jeweils 90.000 und 197K), und jedes dokumentiert Unternehmen im Durchschnitt 4 Fragen. Jede Frage ist ein Satz mit einem fehlenden Wort/Phrase, der aus dem begleitenden Dokument/Kontext gefunden werden kann.
- Papier: https://arxiv.org/abs/1506.03340
- ELI5
- Papier: https://arxiv.org/abs/1907.09190
- Graphquestions
- Zum Erstellen charakteristischer Fragensätze für die QA-Bewertung.
- LC-Quad
- Es handelt sich um einen Goldstandard -KBQA -Datensatz (Fragenbeantwortung über Wissensbasis) mit 5000 Fragen und Sparql -Abfragen. LC-Quad verwendet dbpedia v04.16 als Zielkb.
- Frau Marco
- Dies ist für die Beantwortung der realen Fragen.
- Papier: https://arxiv.org/abs/1611.09268
- Multirc
- Ein Datensatz mit kurzen Absätzen und Multi-Sentenzfragen
- Papier: http://cogcomp.org/page/publication_view/833
- Narrativeqa
- Es enthält die Liste der Dokumente mit Wikipedia -Zusammenfassungen, Links zu vollständigen Geschichten sowie Fragen und Antworten.
- Papier: https://arxiv.org/pdf/1712.07040v1.pdf
- Newsqa
- Ein Maschinenverständnis -Datensatz
- Papier: https://arxiv.org/pdf/1611.09830.pdf
- Qestion-Antwort-Datensatz von CMU
- Dies ist ein Korpus von Wikipedia-Artikeln, manuell erzeugte Faktoidfragen von ihnen und manuell erzeugte Antworten auf diese Fragen zur Verwendung in der akademischen Forschung. Diese Daten wurden von Noah Smith, Michael Heilman, Rebecca Hwa, Shay Cohen, Kevin Gimpel und vielen Studenten der Carnegie Mellon University und der University of Pittsburgh zwischen 2008 und 2010 gesammelt.
- Squad1.0
- Stanford Question Beantwortung des Datensatzes (Squad) ist ein Leseverständnis -Datensatz, der aus Fragen von Crowdworkern auf einer Reihe von Wikipedia -Artikeln besteht, in denen die Antwort auf jede Frage ein Segment von Texten oder Spannweite aus der entsprechenden Lesepassage ist oder die Frage möglicherweise unanständig ist.
- Papier: https://arxiv.org/abs/1606.05250
- Squad2.0
- Squad2.0 kombiniert die 100.000 Fragen in Squad1.1 mit über 50.000 neuen, nicht beantwortbaren Fragen, die von den Crowdworkern kontrovers geschrieben wurden, um die Beantwortung ähnlich auszusehen. Um auf Squad2.0 gut abzuschneiden, müssen Systeme nicht nur nach Möglichkeit Fragen beantworten, sondern auch feststellen, wann keine Antwort durch den Absatz unterstützt wird und sich nicht an die Beantwortung verzichten.
- Papier: https://arxiv.org/abs/1806.03822
- Story Cloze Test
- "Story Cloze Test" ist ein neuer Rahmen für das Argumentationskontrahmen für das Verständnis der Geschichte, die Erzeugung von Geschichten und das Lernen von Skripts. Dieser Test erfordert, dass ein System das richtige Ende einer Vier-Sent-Geschichte auswählt.
- Papier: https://arxiv.org/abs/1604.01696
- Triviaqa
- Triviaqa ist ein Datensatz für das Leseverständnis mit über 650 Kilometer-Evidence-Tripel. Triviaqa enthält 95.000 Fragen-Antwortenpaare, die von Trivia-Enthusiasten und unabhängig voneinander gesammelten Evidenzdokumenten, die im Durchschnitt sechs pro Frage gesammelt wurden, eine qualitativ hochwertige Distanzüberwachung für die Beantwortung der Fragen bieten.
- Papier: https://arxiv.org/abs/1705.03551
- Wikiqa
- Eine öffentlich verfügbare Reihe von Fragen- und Satzpaaren für die Beantwortung von Fragen zur Beantwortung von Fragen zur Beantwortung offener Domänen.
Das DeepQA -Forschungsteam in IBM Watsons Veröffentlichung innerhalb von 5 Jahren
- 2015
- "Automatisierte Problemliste Generierung aus elektronischen medizinischen Unterlagen in IBM Watson", Murthy Devarakonda, Ching-Huei Tsou, IAAI, 2015.
- "Entscheidungsfindung in IBM Watson Frage Beantwortung", J. William Murdock, Ontology Summit, 2015.
- "Unbeaufsichtigtes Unternehmensbeziehungsanalyse in IBM Watson", Aditya Kalyanpur, J. William Murdock, ACS, 2015.
- "Commonsense Argumenting: Ein Event Calculus -basierter Ansatz", ET Mueller, Morgan Kaufmann/Elsevier, 2015.
- 2014
- "Problemorientierte Zusammenfassung der Patientenakte: Ein früher Bericht über eine Watson-Anwendung", M. Devarakonda, Dongyang Zhang, Ching-Huei Tsou, M. Bornea, Healthcom, 2014.
- "WatsonPaths: Scenario-based Question Answering and Inference over Unstructed Information", Adam Lally, Sugato Bachi, Michael A. Barborak, David W. Buchanan, Jennifer Chu-Carroll, David A. Ferrucci*, Michael R. Glass, Aditya Kalyanpur, Erik T. Mueller, J. William Murdock, Siddharth Patwardhan, John M. Prager, Christopher A. Welty, IBM -Forschungsbericht RC25489, 2014.
- "Medizinische Beziehungsextraktion mit vielfältigen Modellen", Chang Wang und James Fan, ACL, 2014.
Veröffentlichung von MS Research innerhalb von 5 Jahren
- 2018
- "Charakterisierung und Unterstützung von Frage, die in der Kommunikation zwischen Mensch und Mensch beantworten", Xiao Yang, Ahmed Hassan Awadallah, Madian Khabsa, Wei Wang, Miaosen Wang, ACM Sigir, 2018.
- "FigureQa: Ein kommentierter Figur -Datensatz für visuelles Denken", Samira Ebrahimi Kahou, Vincent Michalski, Adam Atkinson, Akos Kadar, Adam Trischler, Yoshua Bengio, ICLR, 2018
- 2017
- "Multi-Level-Aufmerksamkeitsnetzwerke für visuelle Frage, die Beantwortung von Dongfei, Jianlong Fu, Tao Mei, Yong Rui, CVPR, 2017.
- "Ein gemeinsames Modell zur Beantwortung von Fragen und Fragen", Tong Wang, Xingdi (Eric) Yuan, Adam Trischler, ICML, 2017.
- "Zweistufige Synthese-Netzwerke zum Übertragungslernen im Maschinenverständnis", David Golub, Po-Sen Huang, Xiaodong HE, Li Deng, EMNLP, 2017.
- "Frage-Beantwortung mit grammatikalisch interpretierbaren Darstellungen", Hamid Palangi, Paul Smolensky, Xiaodong HE, Li Deng,
- "Suchbasiertes neuronales strukturiertes Lernen für sequentielle Beantwortung", Mohit Iyyer, Wen-Tau Yih, Mingwei Chang, ACL, 2017.
- 2016
- "Stapelte Aufmerksamkeitsnetzwerke zur Beantwortung von Bildfragen", Zichao Yang, Xiaodong HE, Jianfeng Gao, Li Deng, Alex Smola, CVPR, 2016.
- "Frage Beantwortung mit Wissensbasis, Web und Beyond", Yih, Scott Wen-Tau und MA, Hao, ACM Sigir, 2016.
- "Newsqa: Ein Maschinenverständnis -Datensatz", Adam Trischler, Tong Wang, Xingdi Yuan, Justin Harris, Alessandro Sordoni, Philip Bachman, Kaheer Suleman, Repl4nlp, 2016.
- "Tabelle Cell-Suche nach Fragen zum Ansprechen", Sun, Huan und Ma, Hao und er, Xiaodong und Yih, Wen-Tau und Su, Yu und Yan, Xifeng, www, 2016.
- 2015
- "Wikiqa: Ein Herausforderungsdatensatz für die Beantwortung von offener Domänen", Yi Yang, Wen-Tau Yih und Christopher Meek, EMNLP, 2015.
- "Webbasierte Fragenbeantwortung: Revisiting Askmsr", Chen-Tse Tsai, Wen-Tau Yih und Christopher JC Burges, MSR-TR, 2015.
- "Offene Domain-Frage, die über semantische Anreicherung beantwortet", Huan Sun, Hao MA, Wen-Tau Yih, Chen-Tse Tsai, Jingjing Liu und Ming-Wei, www, www, 2015.
- 2014
- "Ein Überblick über das Microsoft Deep-QA-System auf Stanford Webquestions Benchmark", Zhenghao Wang, Shengquan Yan, Huaming Wang und Xuedong Huang, MSR-TR, 2014.
- "Semantische Analyse für die Beantwortung von Einbeziehungen", Wen-Tau Yih, Xiaodong He, Christopher Meek, ACL, 2014.
Die Veröffentlichung von Google AI innerhalb von 5 Jahren
- 2018
- Google QA
- "Qanet: Kombinieren der lokalen Faltung mit globaler Selbstbekämpfung des Leseverständnisses", Adams Wei Yu, David Dohan, Minh-Thang Luong, Rui Zhao, Kai Chen, Mohammad Norouzi, Quoc V. Le, ICLR, 2018.
- "Stellen Sie die richtigen Fragen: Aktive Fragenumformulierung mit Verstärkungslernen", Christian Buck und Jannis Bulian und Massimiliano Ciaramita und Wojciech Paweł Gajewski und Andrea Gesmundo und Neil Houlsby und Wei Wang, ICLR, 2018.
- "Aufbau großer Datensätze mit großem Maschinenlesen unter Verwendung von Absatzvektoren", Radu Soricut, Nan Ding, 2018.
- Satzdarstellung
- "Ein effizienter Rahmen für Lernsatzdarstellungen", Lajanugen Logeswaran, Honglak Lee, ICLR, 2018.
- "Hat das Modell die Frage verstanden?", Pramod K. Mudrakarta und Ankur Taly und Mukund Sundararajan und Kedar Dhamdhere, ACL, 2018.
- 2017
- "Analyse der Sprache, die von einem aktiven Fragen Beantwortungsagent gelernt hat", Christian Buck und Jannis Bulian und Massimiliano Ciaramita sowie Wojciech Gajewski und Andrea Gesmundo und Neil Houlsby und Wei Wang, Nips, 2017.
- "Repräsentationen für die Wiederholung der rezidivierenden Spannweiten für die Beantwortung von Rohstoffe", Kenton Lee und Shimi Salant sowie Tom Kwiatkowski und Ankur Parikh und Dipanjan Das und Jonathan Berant, ICLR, 2017.
- Identifizieren Sie dieselbe Frage
- "Neuronale Paraphrase Identifizierung von Fragen mit lauten Vorlagen", Gaurav Singh Tomar und Thyago Duque und Oscar Täckström und Jakob Uszkoreit und Dipanjan Das, Sclem, 2017.
- 2014
- "Großartige Frage! Qualitätenqualität in Q & A", Sujith Ravi und Bo Pang und Vibhor Rastogi und Ravi Kumar, ICWSM, 2014.
Die Veröffentlichung von Facebook AI Research innerhalb von 5 Jahren
- 2018
- Verkörperte Fragenbeantwortung, Abhishek Das, Samyak Datta, Georgia Gkioxari, Stefan Lee, Devi Parikh und Dhruv Batra, CVPR, 2018
- Machen Erklärungen VQA -Modelle vorhersehbarer für einen Menschen?
- Neuronale Kompositionelle Denotationssemantik zur Beantwortung von Fragen, Nitish Gupta, Mike Lewis, EMNLP, 2018
- 2017
- DRQA
- Lesen von Wikipedia zur Beantwortung offener Fragen, Danqi Chen, Adam Fisch, Jason Weston & Antoine Bordes, ACL, 2017.
Bücher
- Natürliche Sprachfrage Beantwortungssystem Taschenbuch - Boris Galitsky (2003)
- Neue Anweisungen in Frage Beantwortung - Mark T. Maybury (2004)
- Teil 3. 5. Frage Beantwortung im Oxford Handbook of Computational Linguistics - Sanda Harabagiu und Dan Moldovan (2005)
- Kap. 28 Frage zur Beantwortung von Sprach- und Sprachverarbeitung - Daniel Jurafsky & James H. Martin (2017)
Links
- Aufbau eines Fragen-Beantwortungssystems von Grund auf-Teil 1
- Qeusection antwortet mit Tensorflow von Steven Hewitt, O'Reilly, 2017
- Warum die Beantwortung der Frage schwer ist
Beitragen
Beiträge willkommen! Lesen Sie zuerst die Beitragsrichtlinien.
Lizenz
In dem gesetzlich mögliche Umfang hat SeriousMac (der Betreuer) auf alle Urheberrechte und verwandte oder benachbarte Rechte an dieser Arbeit verzichtet.