Promptkg 가족 : 신속한 학습 및 KG 관련 연구 작업, 툴킷 및 종이 목록 갤러리.
| 예배 규칙서 | 설명 |
|---|
| 연구 | • 신속한 학습 관련 연구 모델 구현 모음 |
| Lambdakg | • PLM 기반 KG 임베딩 및 응용 프로그램을 위한 라이브러리 |
| Deltakg | • PLM 기반 KG 임베딩을 동적으로 편집하기 위한 라이브러리 |
| 튜토리얼 노트 북 | • 초보자를위한 튜토리얼 노트북 |
목차
- 튜토리얼
- 설문 조사
- 서류
- 신속하게 지식
- 1. 언어 이해
- 2. 멀티 모드
- 3. 고급 작업
- 지식에 대한 프롬프트 (PLM)
- 1. 지식 조사
- 2. 지식 그래프 임베딩
- 3. 분석
- 연락처 정보
튜토리얼
- 사전에 미리 언어 모델이있는 제로 및 소수의 NLP. AACL 2022 튜토리얼 [PPT]
- 데이터 효율적인 지식 그래프 구성. CCKS2022 튜토리얼 [PPT]
- 효율적이고 Robuts 지식 그래프 구성. AACL-IJCNLP 튜토리얼 [PPT]
- 지식에 정보를 제공하는 신속한 학습. MLNLP 2022 튜토리얼 (중국어) [PPT]
설문 조사
- 델타 튜닝 : 미리 훈련 된 언어 모델에 대한 매개 변수 효율적인 방법에 대한 포괄적 인 연구 (ARXIV 2021) [논문]
- 사전 훈련, 프롬프트 및 예측 : 자연 언어 처리에서의 프롬프트 방법에 대한 체계적인 조사 (ACM 컴퓨팅 설문 조사 2021) [논문]
- 사전 훈련 구조 조정 (ARXIV 2022) [논문]
- 미리 훈련 된 언어 모델을 갖춘 지식 집약적 NLP 설문 조사 (ARXIV 2022) [논문]
- 지식이 강화 된 미리 훈련 된 언어 모델 조사 (ARXIV 2022) [논문]
- 지식 기반으로서 언어 모델에 대한 검토 (ARXIV 2022) [논문]
- 생성 지식 그래프 구성 : 검토 (EMNLP, 2022) [논문]
- 언어 모델 프롬프트와의 추론 : 설문 조사 (ARXIV 2022) [논문]
- 다양한 유형의 지식 그래프에 대한 추론 : 정적, 시간적 및 다중 모달 (ARXIV 2022) [논문]
- 큰 언어 모델의 지식 수명주기 : 설문 조사 (ARXIV 2022) [논문]
- 대형 언어 모델 및 지식 그래프 통합 : 로드맵 (ARXIV 2023) [논문]
서류
신속하게 지식
언어 이해
- Neurips 2020에서 지식 집약적 NLP 작업을위한 검색 세대를 검색합니다. [PDF]
- 영역 : ICML 2020에서 검색 된 언어 모델 사전 훈련. [PDF]
- ACL 2022에서 미리 훈련 된 언어 모델을 더 나은 소수의 학습자로 만드는 것. [PDF]
- PTR : OpenAI 2022에서 텍스트 분류 규칙이있는 프롬프트 튜닝. [PDF]
- EMNLP 2021에서 효과적인 제로 및 소수의 관계 추출에 대한 언어 화 및 수반 라벨. [PDF]
- RelationPrompt : EMNLP 2022 (결과)에서 제로 샷 관계 삼중 항 추출에 대한 합성 데이터를 생성하기위한 프롬프트 활용. [PDF]
- 지식이 풍부한 프롬프트 조정 : ACL 2022에서 지식을 텍스트 분류를위한 프롬프트 언어 제에 통합합니다. [PDF]
- PPT : ACL 2022에서 소수의 학습을위한 미리 훈련 된 프롬프트 튜닝. [PDF]
- EMNLP 2022 (결과)에서 미리 훈련 된 언어 모델에 대한 대조적 인 데모 튜닝. [PDF]
- Adaprompt : ARXIV 2022에서 프롬프트 기반 NLP에 대한 적응 모델 교육. [PDF]
- Know Prompt : 관계 추출에 대한 시너지 최적화로 지식 인식 프롬프트 조정, www 2022. [PDF]
- SIGIR 2023에서 데이터 효율적인 지식 그래프 구성을 신속하게 향상시키는 스키마 인식 참조. [PDF]
- 암기로부터 지식을 분리하는 : Neurips 2022에서 검색 된 프롬프트 학습. [PDF]
- 오픈 북 검사로서의 관계 추출 : SIGIR 2022에서 검색 강화 프롬프트 튜닝. [PDF]
- LIGHTNER : COLING 2022에서 플러그 가능한 프롬프트를 통해 저주적 자원을위한 경량 튜닝 패러다임. [PDF]
- ACL 2022에서 보편적 정보 추출을위한 통합 구조 생성. [PDF]
- Lasuie : Neurips 2022에서 잠재적 적응 구조 인식 생성 언어 모델을 사용한 정보 추출 통일. [PDF]
- Atlas : Arxiv 2022에서 검색 증강 언어 모델을 사용한 소수의 학습. [PDF]
- 프롬프트하지 마십시오, 검색! ACL 2022에서 언어 모델을 사용한 채굴 기반 제로 샷 학습. [PDF]
- EMNLP 2022에서 자연어 이해를위한 미리 훈련 된 언어 모델의 지식. [PDF]
- CIKM 2022의 고객 서비스 대화에 대한 통일 지식 프롬프트 사전 훈련. [PDF]
- EMNLP 2022에서 자연어 이해를위한 미리 훈련 된 언어 모델의 지식. [PDF]
- 자체 강조 : ARXIV 2022에서 언어 모델을 자체 생성 지침과 정렬합니다. [PDF]
- 하나의 임베더, 모든 작업 : ARXIV 2022의 명령-결합 된 텍스트 임베딩. [PDF]
- NAACL 2022에서 텍스트 내 학습에 대한 프롬프트를 검색하는 법 학습. [PDF]
- 교육 데이터는 생각보다 더 가치가 있습니다. ACL 2022에서 교육 데이터를 검색하여 간단하고 효과적인 방법. [PDF]
- 모든 도메인에 대한 하나의 모델 : ARXIV 2023의 Cross-Domain NER에 대한 공동 도메인 준비금 조정. [PDF]
- REPLUG : ARXIV 2023에서 검색 된 검은 박스 언어 모델을 검색합니다. [PDF]
- ARXIV 2023에서 제로 샷 지식 그래프 질문 답변에 대한 지식-관제 언어 모델. [PDF]
멀티 모달
- 좋은 시각적 지침은 NAACL 2022 (결과)에서 복합체 및 관계 추출을위한 계층 적 시각 접두사를 더 나은 추출기로 만듭니다. [PDF]
- ECCV 2022에서 시각적 프롬프트 튜닝. [PDF]
- CPT : EMNLP 2022에서 미리 훈련 된 비전 언어 모델을위한 다채로운 프롬프트 튜닝. [PDF]
- IJCV 2022에서 비전 언어 모델을 신속하게하는 법 학습. [PDF]
- Neurips 2022에서 비전 언어 모델의 제로 샷 일반화에 대한 테스트 시간 프롬프트 튜닝. [PDF]
고급 작업
- 언어 처리 (RLP)로서의 권장 사항 : ACM Recsys 2022에서 통합 사전 트레인, 개인화 프롬프트 및 예측 패러다임 (P5). [PDF]
- KDD 2022에서 지식 강화 신속한 학습을 통한 통합 대화 추천 시스템으로. [PDF]
- PRMESTEM : VLDB 2023에서 저주적 일반화 엔터티 매칭에 대한 프롬프트 조정. [PDF]
- VIMA : ARXIV 2022에서 멀티 모달 프롬프트가있는 일반 로봇 조작. [PDF]
- ARXIV 2022에서 연결이 끊긴 프롬프트가있는 편견없는 역 신생 언어 모델. [PDF]
- ProgPrompt : ARXIV 2022에서 대형 언어 모델을 사용하여 위치한 로봇 작업 계획 생성. [PDF]
- Neurips 2022 Workshop Larel에서 구체화 된 추론을위한 언어 모델과 협력. [PDF]
지식에 대한 프롬프트 (PLM)
지식 조사
- 언어 모델의 매개 변수에 얼마나 많은 지식을 포장 할 수 있습니까? EMNLP 2020에서. [PDF]
- 지식 기반으로 언어 모델? EMNLP 2019에서. [PDF]
- CSRR 2022의 Commonsense Transformers의 구체화 된 지식 기반. [PDF]
- TACL2022에서 시간을 인식하는 언어 모델. [PDF]
- 생성 사전 훈련 된 언어 모델은 폐쇄 책 QA의 지식 기반으로 사용될 수 있습니까? ACL2021에서. [PDF]
- 지식 기반으로 언어 모델 : EACL2021에서 엔티티 표현, 저장 용량 및 역설 기간 쿼리. [PDF]
- 생의학 지식 기반 완성을위한 과학적 언어 모델 : AKBC 2021의 경험적 연구. [PDF]
- 다국어 라마 : EACL2021의 다국어 사전 위험 언어 모델에 대한 지식 조사. [PDF]
- 언어 모델이 무엇을 알고 있는지 어떻게 알 수 있습니까? TACL 2020에서. [PDF]
- AKBC 2020에서 문맥이 언어 모델의 사실 예측에 미치는 영향. [PDF]
- Copen : EMNLP 2022에서 미리 훈련 된 언어 모델에 대한 개념적 지식 조사. [PDF]
- ACL 2022에서 미리 훈련 된 언어 모델의 직유 지식을 조사합니다. [PDF]
지식 그래프 임베딩 (우리는 라이브러리 및 벤치 마크 Lambdakg를 제공합니다)
- KG-Bert : ARXIV 2020에서 지식 그래프 완성을위한 BERT. [PDF]
- 미리 훈련 된 언어 모델을 사용한 지식 그래프 완성을위한 멀티 태스킹 학습, Coling 2020. [PDF]
- 효율적인 지식 그래프 완성을위한 구조-대상 텍스트 표현 학습, www 2021. [PDF]
- KEPLER : 지식 임베딩 및 미리 훈련 된 언어 표현을위한 통일 된 모델, TACL 2021 [PDF]
- Statik : NAACL 2022의 유도 지식 그래프의 구조와 텍스트. [PDF]
- 공동 언어 의미 론적 및 구조는 지식 그래프 완성을위한 구조 임베딩, coling. [PDF]
- 지식은 평평합니다 : COLING에서 다양한 지식 그래프 완성을위한 SEQ2SEQ 생성 프레임 워크. [PDF]
- 미리 훈련 된 모델이 지식 그래프 완성에 도움이됩니까? ACL 2022에서 신뢰할 수있는 평가 및 합리적인 접근 방식. [PDF]
- IJCAI 2022에서 지식 임베딩으로 언어 모델. [PDF]
- 차별에서 세대까지 : www 2022에서 생성 변압기를 사용한 지식 그래프 완성. [PDF]
- 암기를 통한 추론 : Arxiv 2022에서 가장 가까운 이웃 지식 그래프 임베드. [PDF]
- SIMKGC : ACL 2022에서 미리 훈련 된 언어 모델을 사용한 간단한 대조 지식 그래프 완성. [PDF]
- ACL 2022에서 시퀀스 지식 그래프 완성 및 질문 답변에 대한 시퀀스. [PDF]
- LP-Bert : ARXIV 2022에서 링크 예측을위한 멀티 태스킹 사전 훈련 지식 그래프 버트. [PDF]
- 마스크 및 이유 : KDD 2022에서 복잡한 논리 쿼리를위한 사전 훈련 지식 그래프 변압기. [PDF]
- 지식은 평평하다 : COLING 2022에서 다양한 지식 그래프 완성을위한 SEQ2SEQ 생성 프레임 워크. [PDF]
분석
- 지식이 풍부하거나 교육받은 추측? ACL 2021에서 언어 모델을 지식 기반으로 재 방문합니다. [PDF]
- 프롬프트 프리브 프리트럴 언어 모델이 될 수 있습니까? ACL 2022에서 인과 적 관점에서 보이지 않는 위험 이해. [PDF]
- 미리 훈련 된 언어 모델은 어떻게 사실 지식을 포착합니까? ACL 2022에서 인과 관계 분석 분석. [PDF]
- ARXIV 2022에서 대형 언어 모델의 출현 능력. [PDF]
- ACL 2022에서 사전에 사전 변압기의 지식 뉴런. [PDF]
- EMNLP 2022에서 미리 훈련 된 변압기 기반 언어 모델에서 기술 뉴런 찾기. [PDF]
- 프롬프트는 자연 언어를 사용하여 NLP 작업을 해결합니까? Arxiv 2022에서. [PDF]
- 시연의 역할 재고 : 텍스트 내 학습이 효과가있는 것은 무엇입니까? EMNLP 2022에서. [PDF]
- 프롬프트 기반 모델은 프롬프트의 의미를 실제로 이해합니까? NAACL 2022에서. [PDF]
- 언어 모델을 신뢰하지 않을 때 : ARXIV 2022에서 파라 메트릭 및 비모수 적 기억의 효과 및 한계 조사. [PDF]
- GPT가 컨텍스트에서 배울 수있는 이유는 무엇입니까? 언어 모델은 ARXIV 2022에서 메타 최적화기로 비밀리에 그라디언트 하강을 수행합니다. [PDF]
- 환상적으로 주문한 프롬프트와 찾을 수있는 곳 : ACL 2022에서 소수의 프롬프트 순서 민감도 극복. [PDF]
- 대형 언어 모델 편집 : ARXIV 2023의 문제, 방법 및 기회. [PDF]
연락처 정보
Tookits를 사용하는 도움이나 문제는 Github 문제를 제출하십시오.