UnifiedSKG
1.0.0
EMNLP 2022 (ORAL) 용지 UnifiedSKG에 대한 코드 : 텍스트-텍스트 언어 모델을 통한 통일 및 멀티 태스킹 구조적 지식 접지. 구조화 된 지식 근거는 최신 관련 리소스 (예 : 문서, 코드, 도구, 튜토리얼)에 대해서는 프로젝트 페이지를 참조하십시오. Huggingface Model Hub에서 체크 포인트를로드하십시오.
.
├── configure # Config files for experiments, tasks, and settings
│ ├── META_TUNING # Config files for tasks and settings
│ └── Salesforce # Config files for experiments (see Misc)
│
├── metrics # Code for evaluation
│ └── ... # Please check the README of the ./seq2seq_construction.
├── models # Code for models
│ ├── adapter # Code for T5 and BART with adapters (based on HuggingFace Transformers)
│ ├── prompt # Code for T5 and BART with prefix-tuning (based on HuggingFace Transformers)
│ └── unified
│ ├── base.py # Code for the base model that enables an arbitrary model to be pushed to HuggingFace Model Hub (namely, PushToHubFriendlyModel)
│ ├── finetune.py # Code for finetuning
│ ├── adaptertuning.py # Code for adapter-tuning
│ ├── prefixtuning.py # Code for prefix-tuning
│ └── combined_prefixtuning.py # Code for combined prefix-tuning (not used in our paper, see Misc)
│
├── seq2seq_construction # Code for converting raw data into sequences
│ └── ... # Please check the README in this directory.
│
├── tasks # Code for loading raw data
│ └── ... # Please check the README in this directory.
│
├── third_party # Packages from third parties
│ └── ... # Please check the README in this directory.
│
├── utils # Code for some (probably) useful stuff
│ ├── processor # Adopted from Tapex: the processor that handles table truncation and linearization
│ └── ...
│ ├── configure.py # Code for parsing config files in ./configure
│ ├── dataset.py # Code for converting input and output sequences into Datasets for training
│ ├── tool.py # Code for loading models, seq2seq constructors, and evaluators
│ ├── trainer.py # Code for EvaluationFriendlyTrainer. If you want make training-specific modifications, you may want to change something here.
│ └── training_arguments.py # Code for seq2seq training arguments
│
├── .gitignore
├── .gitmodules
├── py3.7pytorch1.8.yaml # Anaconda environment config file
├── README.md # The README file you are looking at :)
└── train.py # Entry code, which controls train, eval, test, storage, and logging
( ./tasks , ./seq2seq_construction , ./metrics , ./configure 도 도움이 될 수 있음)
./tasks 아래에 원시 데이터의 "로더"를 추가하십시오. 유용한 스크립트를 위해 Huggingface 데이터 세트를 검색 할 수 있습니다. 그렇지 않다면,이 프로젝트와 Huggingface 커뮤니티의 기고자가 될 수 있습니다../seq2seq_construction 아래에 "시퀀스 래퍼"를 추가하여 시퀀스 입력 (사용자 요청 및 구조화 된 지식)과 통합을 위해 원시 데이터의 시퀀스 출력을 구성하십시오../metrics 에서 작업에 "평가자"를 추가하십시오. 타사 저장소를 사용하는 경우 .gitModules에 추가하십시오../models 에서 새로운 "모델"을 추가 할 수 있습니다../configure/META_TUNING 에서 작업에 대한 구성 파일을 추가하십시오../configure/Salesforce 에서 각 실험에 대한 구성 파일을 추가하십시오. ./models/unified/combined_prefixtuning.py 논문에 사용되지 않습니다. 이 파일에는 단일 교육 루프에서 여러 접두사 간의 상호 작용 에 대한 코드가 포함되어 있습니다. 우리는 그러한 상호 작용의 일부 변형을 시도했지만 논문에 사용 된 (매우 간단한) 전송 학습 기반 접근법을 능가하는 것을 찾지 못했습니다. 그러나 우리는 실패한 시도를 오픈 소스하고 잠재적 인 미래의 탐사를 요구합니다. 
그게 다야 : d
우리의 일이 도움이된다면, 인용하십시오
@article{UnifiedSKG,
title={UnifiedSKG: Unifying and Multi-Tasking Structured Knowledge Grounding with Text-to-Text Language Models},
author={Tianbao Xie and Chen Henry Wu and Peng Shi and Ruiqi Zhong and Torsten Scholak and Michihiro Yasunaga and Chien-Sheng Wu and Ming Zhong and Pengcheng Yin and Sida I. Wang and Victor Zhong and Bailin Wang and Chengzu Li and Connor Boyle and Ansong Ni and Ziyu Yao and Dragomir Radev and Caiming Xiong and Lingpeng Kong and Rui Zhang and Noah A. Smith and Luke Zettlemoyer and Tao Yu},
journal={EMNLP},
year={2022},
}