UnifiedSKG
1.0.0
รหัสสำหรับ EMNLP 2022 (ปากเปล่า) Paper UnifiedSKG: การรวมและการทำงานแบบหลายงานที่มีโครงสร้างความรู้ที่มีแบบจำลองภาษาข้อความเป็นข้อความ โปรดดูหน้าโครงการของเราสำหรับทรัพยากรที่เกี่ยวข้องกับปัจจุบัน (เช่นเอกสาร, รหัส, เครื่องมือ, บทเรียน) สำหรับการลงดินความรู้ที่มีโครงสร้าง โหลดจุดตรวจของเราจาก HuggingFace Model Hub
.
├── configure # Config files for experiments, tasks, and settings
│ ├── META_TUNING # Config files for tasks and settings
│ └── Salesforce # Config files for experiments (see Misc)
│
├── metrics # Code for evaluation
│ └── ... # Please check the README of the ./seq2seq_construction.
├── models # Code for models
│ ├── adapter # Code for T5 and BART with adapters (based on HuggingFace Transformers)
│ ├── prompt # Code for T5 and BART with prefix-tuning (based on HuggingFace Transformers)
│ └── unified
│ ├── base.py # Code for the base model that enables an arbitrary model to be pushed to HuggingFace Model Hub (namely, PushToHubFriendlyModel)
│ ├── finetune.py # Code for finetuning
│ ├── adaptertuning.py # Code for adapter-tuning
│ ├── prefixtuning.py # Code for prefix-tuning
│ └── combined_prefixtuning.py # Code for combined prefix-tuning (not used in our paper, see Misc)
│
├── seq2seq_construction # Code for converting raw data into sequences
│ └── ... # Please check the README in this directory.
│
├── tasks # Code for loading raw data
│ └── ... # Please check the README in this directory.
│
├── third_party # Packages from third parties
│ └── ... # Please check the README in this directory.
│
├── utils # Code for some (probably) useful stuff
│ ├── processor # Adopted from Tapex: the processor that handles table truncation and linearization
│ └── ...
│ ├── configure.py # Code for parsing config files in ./configure
│ ├── dataset.py # Code for converting input and output sequences into Datasets for training
│ ├── tool.py # Code for loading models, seq2seq constructors, and evaluators
│ ├── trainer.py # Code for EvaluationFriendlyTrainer. If you want make training-specific modifications, you may want to change something here.
│ └── training_arguments.py # Code for seq2seq training arguments
│
├── .gitignore
├── .gitmodules
├── py3.7pytorch1.8.yaml # Anaconda environment config file
├── README.md # The README file you are looking at :)
└── train.py # Entry code, which controls train, eval, test, storage, and logging
(readmes ใน ./tasks , ./seq2seq_construction , ./metrics , ./configure ยังมีประโยชน์)
./tasks คุณสามารถค้นหาชุดข้อมูล HuggingFace สำหรับสคริปต์ที่มีประโยชน์ หากไม่เป็นเช่นนั้นคุณสามารถเป็นผู้มีส่วนร่วมของทั้งโครงการนี้และชุมชน HuggingFace./seq2seq_construction เพื่อสร้างอินพุตลำดับ (คำขอของผู้ใช้และความรู้ที่มีโครงสร้าง) และเอาต์พุตต่อเนื่องจากข้อมูลดิบสำหรับการรวมกัน./metrics หากใช้พื้นที่เก็บข้อมูลของบุคคลที่สามอย่าลืมเพิ่มลงใน. gitmodules./models สำหรับสถาปัตยกรรมรุ่นใหม่หรืออัลกอริทึมการเรียนรู้ใหม่./configure/META_TUNING meta_tuning./configure/Salesforce salesforce ./models/unified/combined_prefixtuning.py ไม่ได้ใช้ในกระดาษของเรา ไฟล์นี้มีรหัสสำหรับ การโต้ตอบ ระหว่างคำนำหน้าหลายคำในลูปการฝึกอบรมครั้งเดียว เราลองใช้การโต้ตอบดังกล่าวบางอย่าง แต่ไม่พบว่ามีสิ่งใดที่ดีกว่าวิธีการถ่ายโอน (ง่ายมาก) ที่ใช้ในการเรียนรู้ที่ใช้ในบทความของเรา อย่างไรก็ตามเราเปิดแหล่งความพยายามที่ล้มเหลวของเราและเรียกร้องให้มีการสำรวจในอนาคต 
นั่นคือทั้งหมด: D
หากคุณพบว่างานของเรามีประโยชน์โปรดอ้างอิงเป็น
@article{UnifiedSKG,
title={UnifiedSKG: Unifying and Multi-Tasking Structured Knowledge Grounding with Text-to-Text Language Models},
author={Tianbao Xie and Chen Henry Wu and Peng Shi and Ruiqi Zhong and Torsten Scholak and Michihiro Yasunaga and Chien-Sheng Wu and Ming Zhong and Pengcheng Yin and Sida I. Wang and Victor Zhong and Bailin Wang and Chengzu Li and Connor Boyle and Ansong Ni and Ziyu Yao and Dragomir Radev and Caiming Xiong and Lingpeng Kong and Rui Zhang and Noah A. Smith and Luke Zettlemoyer and Tao Yu},
journal={EMNLP},
year={2022},
}