대답하는 멋진 질문
기계 학습 및 딥 러닝 사용에 대한 정보 검색 및 자연어 처리 (NLP)의 분야 내에서 컴퓨터 과학 분야 인 질문 답변 (QA) 주제의 선별 된 목록
정보검색및자연언어처리분아야의질의응답에관한큐레이션- 머신러닝과딥러닝단계까지
Q & A 시스템 주제의 선택된 목록, 정보 검색 및 자연어 처리 분야의 컴퓨터 과학 분야 - 머신 러닝 및 딥 러닝 사용
내용물
- 최근 트렌드
- QA에 대해
- 이벤트
- 시스템
- QA의 경쟁
- 출판물
- 코드
- 강의
- 슬라이드
- 데이터 세트 컬렉션
- 데이터 세트
- 서적
- 모래밭
최근 트렌드
최근 QA 모델
- DILBERT : 효율적인 오픈 도메인 질문 답변을 위해 변압기 기반 인코더의 상호 작용 층 지연 (2020)
- 종이 : https://arxiv.org/pdf/2010.08422.pdf
- github : https://github.com/wissam-sib/dilbert
- UnifiedQA : 단일 QA 시스템과의 교차 형식 경계 (2020)
- 데모 : https://unifiedqa.apps.allenai.org/
- PROQA : Open-Domain QA 및 IR에 대한 밀도가 높은 코퍼스 지수를 사전 해제하는 자원 효율적인 방법. (2020)
- 종이 : https://arxiv.org/pdf/2005.00038.pdf
- github : https://github.com/xwhan/proqa
- Tydi QA : 유형 학적으로 다양한 언어로 정보를 찾는 질문에 대한 벤치 마크 (2020)
- 종이 : https://arxiv.org/ftp/arxiv/papers/2003/2003.05002.pdf
- 기계 읽기 이해를위한 후 향적 독자
- 종이 : https://arxiv.org/pdf/2001.09694v2.pdf
- TANDA : 답변 문장 선택을위한 미리 훈련 된 변압기 모델을 전송 및 적응 시키십시오 (AAAI 2020)
- 종이 : https://arxiv.org/pdf/1911.04118.pdf
최근 언어 모델
- Electra : 발전기가 아닌 판별 자로서 사전 훈련 텍스트 인코더, Kevin Clark, et al., ICLR, 2020.
- Tinybert : 자연 언어 이해를위한 증류점, Xiaoqi Jiao 등, ICLR, 2020.
- Minilm : 미리 훈련 된 변압기의 작업에 대한 압축을위한 깊은 자체 변환 증류, Wenhui Wang, et al., Arxiv, 2020.
- T5 : 통합 된 텍스트-텍스트 변압기, Colin Raffel 등을 사용하여 전송 학습의 한계를 탐색하여 Arxiv Preprint, 2019.
- Ernie : 유익한 엔티티, Zhengyan Zhang 등의 언어 표현이 향상되었습니다.
- XLNET : 언어 이해를위한 일반화 된 자동 회귀 사전 조정, Zhilin Yang, et al., Arxiv Preprint, 2019.
- Albert : 언어 표현에 대한 자기 감독 학습을위한 라이트 버트, Zhenzhong Lan, et al., Arxiv Preprint, 2019.
- Roberta : 강력하게 최적화 된 Bert Pretraining 접근법, Yinhan Liu 등, Arxiv Preprint, 2019.
- Distilbert, Bert의 불화 버전 : 작고, 빠르고, 저렴하며 가벼운, Victor Sanh, et al., Arxiv, 2019.
- Spanbert : 스팬을 나타내고 예측하여 사전 훈련 개선, Mandar Joshi 등, Tacl, 2019.
- BERT : 언어 이해를위한 심층 양방향 변압기의 사전 훈련, Jacob Devlin, et al., NAACL 2019, 2018.
AAAI 2020
- TANDA : 답변 문장 선택에 대한 사전 훈련 된 변압기 모델을 전송 및 적응시켜 Siddhant Garg 등, AAAI 2020, 2019 년 11 월.
ACL 2019
- Mediqa 2019 공유 작업에 대한 개요, 텍스트 추론, 질문 엔터테인먼트 및 질문 답변, Asma Ben Abacha, et al., ACL-W 2019, 2019 년 8 월.
- NLP 애플리케이션에 도전하기위한 확장 가능하고 신뢰할 수있는 캡슐 네트워크를 향해, Wei Zhao, et al., ACL 2019, 2019 년 6 월.
- 규모의 멀티 홉 읽기 이해를위한인지 그래프, Ming Ding 등, ACL 2019, 2019 년 6 월.
- 실시간 오픈 도메인 질문은 밀도가 높은 스피트 문구 인덱스, Minjoon Seo 등, ACL 2019, 2019 년 6 월에 응답합니다.
- Cloze Translation, Patrick Lewis 등, ACL 2019, 2019 년 6 월에 대한 감독되지 않은 질문 답변.
- SEMEVAL-2019 과제 10 : 수학 질문 응답, Mark Hopkins 등, ACL-W 2019, 2019 년 6 월.
- 지식 인식 독자, Wenhan Xiong 등, ACL 2019, 2019 년 5 월에 불완전한 KB에 대한 질문에 대한 질문 개선.
- 일치하는 기사는 그래픽 분해 및 컨볼 루션, Bang Liu 등, ACL 2019, 2019 년 5 월 쌍
- 에피소드 메모리 리더 : 스트리밍 데이터에서 질문에 대한 질문에 대해 기억해야 할 사항, Moonsu Han, et al., ACL 2019, 2019 년 3 월.
- 자연스러운 질문 : 질문에 대한 질문에 대한 벤치 마크, Tom Kwiatkowski 등, TACL 2019, 2019 년 1 월.
- 교과서 질문은 멀티 모달 컨텍스트 그래프 이해 및 자기 감독 개방형 이해력, Daesik Kim, et al., ACL 2019, 2018 년 11 월.
Emnlp-ijcnlp 2019
- 지식 기반으로 언어 모델?, Fabio Petron 등, EMNLP-IJCNLP 2019, 2019 년 9 월.
- LXMERT : Transformers, Hao Tan, et al., EMNLP-IJCNLP 2019, 2019 년 12 월의 교차 모임 인코더 표현 학습.
- 반복 쿼리 생성, Peng QI 등, EMNLP-IJCNLP 2019, 2019 년 10 월을 통한 복잡한 오픈 도메인 질문에 답변합니다.
- KAGNET : 상식 추론을위한 지식 인식 그래프 네트워크, Bill Yuchen Lin 등, EMNLP-IJCNLP 2019, 2019 년 9 월.
- 다양한 서열 생성을위한 혼합 내용 선택, Jaemin Cho 등, EMNLP-IJCNLP 2019, 2019 년 9 월.
- 약하게 감독 된 질문 답변에 대한 개별 하드 EM 접근, Sewon Min, et al., Emnlp-ijcnlp, 2019, 2019 년 9 월.
arxiv
- Passage Ranking에 대한 Bert의 성공과 실패를 조사, Harshith Padigela 등, Arxiv Preprint, 2019 년 5 월.
- 대화 질문 답변에 대한 역사 답변이 포함 된 Bert, Chen Qu, et al., Arxiv Preprint, 2019 년 5 월.
- 순위에서 Bert의 행동을 이해, Yifan Qiao 등, Arxiv Preprint, 2019 년 4 월.
- 검토 읽기 이해력 및 종횡비 기반 감정 분석을위한 Bert Post-Training, Hu Xu 등, Arxiv Preprint, 2019 년 4 월.
- Bertserini, Wei Yang 등과의 응답 엔드 투 엔드 오픈 도메인 질문, Arxiv Preprint, 2019 년 2 월.
- 자연스러운 질문에 대한 버트 기준, Chris Alberti, et al., Arxiv Preprint, 2019 년 1 월.
- Bert, Rodrigo Nogueira 등과의 통과 재 계정, Arxiv Preprint, 2019 년 1 월.
- SDNET : 대화 질문 답변을위한 맥락화 된주의 기반 딥 네트워크, Cheng Zhu, et al., Arxiv, 2018 년 12 월.
데이터 세트
- ELI5 : 긴 양식 질문 답변, Angela Fan 등, ACL 2019, 2019 년 7 월
- Codah : 상식에 대한 대적으로 작성된 질문에 대한 답변 데이터 세트, Michael Chen, et al., Repeval 2019, 2019 년 6 월.
QA에 대해
QA의 유형
- 단일 회전 QA : 컨텍스트를 고려하지 않고 대답하십시오
- 대화 QA : 이전 대화 회전을 사용하십시오
QA의 하위 유형
- 지식 기반 QA
- 테이블/목록 기반 QA
- 텍스트 기반 QA
- 커뮤니티 기반 QA
- 시각적 QA
QA 시스템의 사전 처리를위한 분석 및 구문 분석
lanugage 분석
- 형태 학적 분석
- 명명 된 엔티티 인식 (NER)
- 동성애 / 폴리 세미 분석
- 구문 구문 분석 (의존성 구문 분석)
- 시맨틱 인식
대부분의 QA 시스템에는 대략 3 개의 부품이 있습니다
- 사실 추출
- 엔티티 추출
- 명명 된 엔티티 인식 (NER)
- 관계 추출
- 질문 이해
- 답을 생성합니다
이벤트
- Wolfram Alpha는 2009 년에 답변 엔진을 끊었습니다.
- IBM Watson System은 최고의 Jeopardy를 물리 쳤습니다! 2011 년 챔피언.
- Apple의 Siri는 2011 년 Wolfram Alpha의 답변 엔진을 통합했습니다.
- Google은 지식 그래프를 시작하여 2012 년 무료 기본 지식 기반을 활용하여 QA를 포함 시켰습니다.
- 아마존 에코 | Alexa (2015), Google Home | Google Assistant (2016), Invoke | Ms Cortana (2017), HomePod (2017)
시스템
- IBM WATSON- 최첨단 공연이 있습니다.
- Facebook DRQA- 분대 1.0 데이터 세트에 적용됩니다. Squad2.0 데이터 세트가 출시되었습니다. 그러나 DRQA는 아직 테스트되지 않았습니다.
- MIT Media Lab의 지식 그래프는 컴퓨터가 사람들이 사용하는 단어의 의미를 이해하도록 도와 주도록 설계된 자유롭게 사용할 수있는 시맨틱 네트워크입니다.
QA의 경쟁
| 데이터 세트 | 언어 | 조직자 | 부터 | 최고 순위 | 모델 | 상태 | 인간의 성과에 대한 |
|---|
| 0 | 이야기 클로즈 테스트 | 영어 | Univ. 로체스터의 | 2016 | MSAP | 로지스틱 회귀 | 닫은 | 엑스 |
| 1 | MS 마르코 | 영어 | 마이크로 소프트 | 2016 | Yuanfudao Research NLP | 화성 | 닫은 | 영형 |
| 2 | MS Marco V2 | 영어 | 마이크로 소프트 | 2018 | NTT Media Intelli. 랩. | 가면극 Q & A 스타일 | 열렸다 | 엑스 |
| 3 | 분대 | 영어 | Univ. 스탠포드의 | 2018 | xlnet (단일 모델) | xlnet 팀 | 닫은 | 영형 |
| 4 | 분대 2.0 | 영어 | Univ. 스탠포드의 | 2018 | Pingan Omni-Sinitic | Albert + DAAF + VERIFIER (앙상블) | 열렸다 | 영형 |
| 5 | Triviaqa | 영어 | Univ. 워싱턴의 | 2017 | Ming Yan | - | 닫은 | - |
| 6 | 데 칸트 | 영어 | Salesforce Research | 2018 | Salesforce Research | MQAN | 닫은 | 엑스 |
| 7 | Dureader ver1. | 중국인 | 바이두 | 2015 | 시도하는 사람 | T- 리더 (싱글) | 닫은 | 엑스 |
| 8 | Dureader Ver2. | 중국인 | 바이두 | 2017 | 르네상스 | Aliireader | 열렸다 | - |
| 9 | Korquad | 한국인 | LG CNS AI 연구 | 2018 | Clova ai 유충 팀 | 유충 -Kor-large + + Claf (싱글) | 닫은 | 영형 |
| 10 | Korquad 2.0 | 한국인 | LG CNS AI 연구 | 2019 | Kangwon National University | Knu-Baseline (단일 모델) | 열렸다 | 엑스 |
| 11 | Coqa | 영어 | Univ. 스탠포드의 | 2018 | Zhuiyi 기술 | Roberta + AT + KD (앙상블) | 열렸다 | 영형 |
출판물
- 서류
- "텍스트를 탈지하는 법 배우기", Adams Wei Yu, Hongrae Lee, Quoc V. Le, 2017. : 텍스트에서 원하는 것을 보여줍니다.
- "지역 신경주의에 대한 깊은 공동 실체 명확성", Octavian-Eugen Ganea 및 Thomas Hofmann, 2017.
- "기계 이해력을위한 양방향 주의적 흐름", Minjoon Seo, Aniruddha Kembhavi, Ali Farhadi, Hananneh Hajishirzi, ICLR, 2017.
- Matthew Francis-Landau, Greg Durrett 및 Dan Klei, NAACL-HLT 2016.
- https://github.com/matthewfl/nlp-entity-convnet
- "지식 기반과 연결되는 엔티티 : 문제, 기술 및 솔루션", Wei Shen, Jianyong Wang, Jiawei Han, IEEE 지식 및 데이터 엔지니어링 (TKDE), 2014.
- "This is Watson에 대한 소개, IBM 연구 개발 저널, Da Ferrucci, 2012.
- "정보 검색 관점에서 기술에 대한 질문에 대한 설문 조사", Information Sciences, 2011.
- "제한된 영역에서의 질문 : 개요", Diego Mollá 및 José Luis Vicedo, Computational Linguistics, 2007
- "자연 언어 질문 답변 : 여기의 견해", L Hirschman, R Gaizauskas, 자연 언어 공학, 2001.
- 엔티티 명단 / 엔티티 링크
코드
- BIDAF- 양방향주의 흐름 (BIDAF) 네트워크는 다른 수준의 세분성에서의 컨텍스트를 나타내며 양방향주의 흐름 메커니즘을 사용하여 초기 요약없이 쿼리 인식 컨텍스트 표현을 얻는 다단계 계층 적 프로세스입니다.
- QANET- Q & A 아키텍처는 반복적 인 네트워크가 필요하지 않습니다. 인코더는 컨볼 루션 및 자체 변환으로 구성되며, 여기서 Convolution은 국소 상호 작용 및 자체 변환 모델 글로벌 상호 작용으로 구성됩니다.
- Google; 비공식; 텐서 플로우 v1.5
- 종이
- R-NET- 독해 스타일 질문 응답을위한 엔드 투 엔드 신경망 모델.
- MS; Hkust에 의해 비공식적으로; 텐서 플로우 v1.5
- 종이
- r-net-in-keras-keras의 r-net 재 구현.
- DRQA -DRQA는 공개 도메인 질문 답변에 적용되는 독해를위한 시스템입니다.
- 페이스 북; 공식적인; Pytorch v0.4
- 종이
- BERT- 변압기의 양방향 인코더 표현을 나타내는 새로운 언어 표현 모델. 최근 언어 표현 모델과 달리 Bert는 모든 계층에서 왼쪽 및 오른쪽 컨텍스트를 공동으로 조절하여 깊은 자전거 표현을 미리 훈련하도록 설계되었습니다.
- Google; 공식 구현; 텐서 플로우 v1.11.0
- 종이
강의
- 질문 답변 - 자연어 처리 - Dragomir Radev, Ph.D. | 미시간 대학교 | 2016.
슬라이드
- Scott Wen -Tau Yih & Hao MA | Microsoft Research | 2016.
- 질문 답변 - Dr. Mariana Neves | Hasso Plattner Institut | 2017.
데이터 세트 컬렉션
- Nliwod의 질문에 대한 답변 데이터 세트
- 자연 언어 처리를위한 Karthinkncode의 데이터 세트
데이터 세트
- AI2 과학 질문 v2.1 (2017)
- 초등학교 및 중학교 학년에 걸쳐 미국의 학생 평가에 사용 된 질문으로 구성됩니다. 각 질문은 4 방향 객관식 형식이며 다이어그램 요소를 포함하거나 포함하지 않을 수도 있습니다.
- 종이 : http://ai2-website.s3.amazonaws.com/publications/ai2reasoningchallenge2018.pdf
- 어린이 도서 테스트
- 그것은 자동 텍스트 이해와 추론의 목표를 향해 구성된 Facebook AI Research의 BABI 프로젝트 중 하나입니다. CBT는 언어 모델이 더 넓은 언어 적 맥락을 악용 할 수있는 방법을 직접 측정하도록 설계되었습니다.
- 코다 데이터 세트
- Deepmind Q & A 데이터 세트; CNN/데일리 메일
- Hermann et al. (2015)는 Q & A 연구를 위해 뉴스 기사를 사용하여 두 가지 멋진 데이터 세트를 만들었습니다. 각 데이터 세트에는 많은 문서 (각각 90k 및 197k)가 포함되어 있으며 각 문서 회사는 평균 4 개의 질문에 대략 4 개의 질문이 있습니다. 각 질문은 하나의 누락 된 단어/문구가있는 문장으로,이 문서/컨텍스트에서 찾을 수 있습니다.
- 종이 : https://arxiv.org/abs/1506.03340
- ELI5
- 종이 : https://arxiv.org/abs/1907.09190
- 그래프 퀘스트
- QA 평가를위한 특징이 풍부한 질문 세트를 생성 할 때.
- LC-Quad
- 5000 질문과 SPARQL 쿼리가 포함 된 Gold Standard KBQA (지식 기반에 대한 질문) 데이터 세트입니다. LC-Quad는 DBPEDIA V04.16을 대상 KB로 사용합니다.
- MS 마르코
- 이것은 실제 질문에 대한 답변입니다.
- 종이 : https://arxiv.org/abs/1611.09268
- Multirc
- 짧은 단락 및 다중 문장 질문 데이터 세트
- 종이 : http://cogcomp.org/page/publication_view/833
- 내러티브 Qa
- 여기에는 Wikipedia 요약이 포함 된 문서 목록, 전체 이야기 링크 및 질문 및 답변이 포함됩니다.
- 종이 : https://arxiv.org/pdf/1712.07040v1.pdf
- Newsqa
- 기계 이해 데이터 세트
- 종이 : https://arxiv.org/pdf/1611.09830.pdf
- CMU의 Qestion-Answer 데이터 세트
- 이것은 학업 연구에 사용하기 위해 Wikipedia 기사, 수동으로 생성 된 사실 질문 및 이러한 질문에 대한 수동으로 생성 된 답변의 코퍼스입니다. 이 데이터는 Noah Smith, Michael Heilman, Rebecca Hwa, Shay Cohen, Kevin Gimpel 및 2008 년과 2010 년 사이에 Carnegie Mellon University의 많은 학생들에 의해 수집되었습니다.
- 분대 1.0
- 스탠포드 질문 답변 데이터 세트 (Squad)는 Wikipedia 기사 세트에서 크라우드 노동자들이 제기 한 질문으로 구성된 독해 데이터 세트로, 모든 질문에 대한 답변은 해당 독서 구절에서 텍스트 또는 스팬이거나 의문의 여지가 없을 수 있습니다.
- 종이 : https://arxiv.org/abs/1606.05250
- Squad2.0
- Squad2.0은 Squad1.1의 100,000 개의 질문을 5 만 개가 넘는 새로운 대답 할 수없는 질문을 크라우드 노동자들이 반짝이는 질문에 대답하는 것과 비슷한 것으로 보입니다. Squad2.0에서 잘 수행하려면 시스템은 가능한 경우 질문에 답변 할뿐만 아니라 단락에 의해 답변이 지원되지 않는시기를 결정하고 응답을 금지해야합니다.
- 종이 : https://arxiv.org/abs/1806.03822
- 이야기 클로즈 테스트
- 'Story Cloze Test'는 스토리 이해, 스토리 세대 및 스크립트 학습을 평가하기위한 새로운 상식 추론 프레임 워크입니다. 이 테스트는 시스템이 4 문장 이야기의 올바른 결말을 선택해야합니다.
- 종이 : https://arxiv.org/abs/1604.01696
- Triviaqa
- Triviaqa는 650k 이상의 질문 응답 트리플을 포함하는 독해 데이터 세트입니다. Triviaqa에는 퀴즈 애호가가 저술 한 95K 질문 응답 쌍과 평균적으로 질문 당 6 개가 독립적으로 수집 된 증거 문서를 포함하여 질문에 답변하기위한 고품질의 먼 감독을 제공합니다.
- 종이 : https://arxiv.org/abs/1705.03551
- 위키카
- 공개 도메인 질문에 대한 공개 된 질문과 문장 쌍.
5 년 이내에 IBM Watson의 출판물의 DeepQA 연구팀
- 2015
- "IBM Watson의 전자 의료 기록에서 자동화 된 문제 목록 생성", Murthy Devarakonda, Ching-Huei Tsou, IAAI, 2015.
- "IBM Watson 질문에 대한 의사 결정", J. William Murdock, Ontology Summit, 2015.
- "IBM Watson의 감독되지 않은 실체 관계 분석", Aditya Kalyanpur, J William Murdock, ACS, 2015.
- "상식 추론 : 이벤트 미적분 기반 접근법", ET Mueller, Morgan Kaufmann/Elsevier, 2015.
- 2014
- "문제 지향 환자 기록 요약 : Watson 응용 프로그램에 대한 초기 보고서", M. Devarakonda, Dongyang Zhang, Ching-Huei Tsou, M. Bornea, Healthcom, 2014.
- "WatsonPaths : 시나리오 기반 질문 답변 및 추론", Adam Lally, Sugato Bachi, Michael A. Barborak, David W. Buchanan, Jennifer Chu-Carroll, David A. Ferrucci*, Michael R. Glass, Aditya Kalyanpur, Erik T. Mueller, J. William Murdock, Siddhan, Patwardhan, Patwardhan, Patwardhan, Patwardhan, Patwardhan IBM 연구 보고서 RC25489, 2014.
- "매니 폴드 모델을 통한 의료 관계 추출", Chang Wang 및 James Fan, ACL, 2014.
5 년 이내에 MS Research의 간행물
- 2018
- Xiao Yang, Ahmed Hassan Awadallah, Madian Khabsa, Wei Wang, Miaosen Wang, ACM Sigir, 2018.
- "그림 QA : 시각적 추론을위한 주석이 달린 피겨 데이터 세트", Samira Ebrahimi Kahou, Vincent Michalski, Adam Atkinson, Akos Kadar, Adam Trischler, Yoshua Bengio, ICLR, 2018
- 2017
- "시각적 질문 응답을위한 다단계주의 네트워크", Dongfei Yu, Jianlong Fu, Tao Mei, Yong Rui, CVPR, 2017.
- "질문 답변 및 질문 세대에 대한 공동 모델", Tong Wang, Xingdi (Eric) Yuan, Adam Trischler, ICML, 2017.
- "기계 이해력의 전송 학습을위한 2 단계 합성 네트워크", David Golub, Po-Sen Huang, Xiaodong HE, Li Deng, Emnlp, 2017.
- "문법적으로 해석 가능한 표현과의 답변", Hamid Palangi, Paul Smolensky, Xiaodong HE, Li Deng,
- "순차적 질문에 대한 검색 기반 신경 구조 학습", Mohit Iyyer, Wen-Tau Yih, Ming-Wei Chang, ACL, 2017.
- 2016
- "이미지 질문 응답을위한주의 네트워크 스택", Zichao Yang, Xiaodong HE, Jianfeng Gao, Li Deng, Alex Smola, CVPR, 2016.
- "지식 기반, 웹 및 그 너머에 대한 질문", Yih, Scott Wen-Tau 및 Ma, Hao, Acm Sigir, 2016.
- "Newsqa : 기계 이해 데이터 세트", Adam Trischler, Tong Wang, Xingdi Yuan, Justin Harris, Alessandro Sordoni, Philip Bachman, Kaheer Suleman, Repl4nlp, 2016.
- "질문에 대한 테이블 셀 검색", Sun, Huan 및 Ma, Hao 및 He, Xiaodong 및 Yih, Wen-Tau 및 Su and Yan, Xifeng, www, 2016.
- 2015
- "Wikiqa : 오픈 도메인 질문 응답을위한 도전 데이터 세트", Yi Yang, Wen-Tau Yih 및 Christopher Meek, Emnlp, 2015.
- "웹 기반 질문 답변 : AskMSR 재 방문", Chen-Tse Tsai, Wen-Tau Yih 및 Christopher JC Burges, MSR-TR, 2015.
- "의미 론적 강화를 통한 오픈 도메인 질문에 대한 개방형 질문", Huan Sun, Hao MA, Wen-Tau Yih, Chen-Tse Tsai, Jingjing Liu 및 Ming-Wei Chang, www, 2015.
- 2014
- "Stanford Webquestions 벤치 마크에서 Microsoft Deep QA 시스템의 개요", Zhenghao Wang, Shengquan Yan, Huaming Wang 및 Xuedong Huang, MSR-TR, 2014.
- "단일 관계 질문 응답을위한 시맨틱 파싱", Wen-Tau Yih, Xiaodong HE, Christopher Meek, ACL, 2014.
5 년 이내에 Google AI의 간행물
- 2018
- 구글 QA
- "Qanet : 독해를위한 세계적 컨볼 루션과 함께 현지 컨볼 루션을 결합하여 Adams Wei Yu, David Dohan, Minh-Thang Luong, Rui Zhao, Kai Chen, Mohammad Norouzi, Quoc V. Le, ICLR, 2018.
- "올바른 질문 : 강화 학습을 통한 적극적인 질문 개혁", Christian Buck and Jannis Bulian 및 Massimiliano Ciaramita 및 Wojciech Paweł Gajewski 및 Andrea Gesmundo 및 Neil Houlsby and Wei Wang, ICLR, 2018.
- "단락 벡터를 사용하여 대형 기계 판독 이해 데이터 세트 구축", Radu Soricut, Nan Ding, 2018.
- 문장 표현
- "학습 문장 표현을위한 효율적인 프레임 워크", Lajanugen Logeswaran, Honglak Lee, ICLR, 2018.
- "모델이 질문을 이해 했습니까?", Pramod K. Mudrakarta와 Ankur Taly와 Mukund Sundararajan 및 Kedar Dhamdhere, ACL, 2018.
- 2017
- "적극적인 질문 응답 에이전트에 의해 배운 언어 분석", Christian Buck and Jannis Bulian 및 Massimiliano Ciaramita, Wojciech Gajewski와 Andrea Gesmundo, Neil Houlsby 및 Wei Wang, NIPS, 2017.
- "추출 질문 응답에 대한 반복적 인 범위 표현", Kenton Lee 및 Shimi Salant, Tom Kwiatkowski, Ankur Parikh 및 Dipanjan Das 및 Jonathan Berant, ICLR, 2017.
- 같은 질문을 식별하십시오
- "시끄러운 사전 여파로 질문에 대한 신경구 동작 식별", Gaurav Singh Tomar 및 Thyago Duque 및 Oscar Täckström 및 Jakob Uszkoreit 및 Dipanjan Das, Sclem, 2017.
- 2014
- "좋은 질문! 커뮤니티 Q & A의 질문 품질", Sujith Ravi 및 Bo Pang 및 Vibhor Rastogi 및 Ravi Kumar, ICWSM, 2014.
Facebook AI Research의 출판물 5 년 이내에 출판되었습니다
- 2018
- 구체화 된 질문 답변, Abhishek Das, Samyak Datta, Georgia Gkioxari, Stefan Lee, Devi Parikh 및 Dhruv Batra, CVPR, 2018
- 설명을 통해 VQA 모델이 인간에게 더 예측 가능하게 만들 수 있습니까?, Arjun Chandrasekaran, Viraj Prabhu, Deshraj Yadav, Prithvijit Chattopadhyay 및 Devi Parikh, Emnlp, 2018
- 질문 답변에 대한 신경 구성 표현 시맨틱, Nitish Gupta, Mike Lewis, Emnlp, 2018
- 2017
- DRQA
- 오픈 도메인 질문에 답하기 위해 Wikipedia를 읽고, Danqi Chen, Adam Fisch, Jason Weston & Antoine Bordes, ACL, 2017.
서적
- 자연어 질문 응답 시스템 페이퍼 백 -Boris Galitsky (2003)
- 질문 답변의 새로운 방향 - Mark T. Maybury (2004)
- 파트 3.
- 28 장
모래밭
- 처음부터 질문 응답 시스템 구축-1 부
- Steven Hewitt, O'Reilly, 2017의 Tensorflow로 Qeustion 응답
- 질문 대답이 어려운 이유
기여
기부금을 환영합니다! 먼저 기여 가이드 라인을 읽으십시오.
특허
법률에 따라 가능한 한, 심각한 MAC (관리자)는이 작업에 대한 모든 저작권 및 관련 또는 이웃 권리를 포기했습니다.