Zemi
1.0.0

可以在此处找到有关下载预处理数据集和预处理服装数据集的说明
从:https://uofi.box.com/s/wnt6cv7icuir4q3wb2a6viuyklme5dga下载checkpoints 。将检查点目录放在zemi/output/p3_finetuning下的checkpoints中
使用conda env create -f environment.yml 。运行accelerate config以配置设备。
表1中重现主要结果的脚本:执行(半)参数多任务促使培训和零射门评估。有关配置的详细说明,请参见此处。所有脚本都应在zemi/下运行。 SETUP_ENV.sh将在以下脚本中调用以设置env变量。如果不使用与上述设置完全相同的文件夹结构,则可以修改变量。
bash ./training/no_aug_base.shbash ./training/no_aug_large.shbash ./training/concat_base.shbash ./training/concat_large.shbash ./training/fid_base.shbash ./training/fid_large.shbash ./training/zemi_base.sh zemi_base.shbash ./training/zemi_large.sh zemi/modeling_t5.py来自此行和zemi/modeling_xattn.pyzemi/multi_task_fine_tune_baseline.pyzemi/multi_task_fine_tune_xattn.pyzemi/eval_original_task_only.pyzemi/eval_original_task_only_xattn.py visualization/包含每个任务检索的文档的示例。我们包括在visualization/top50_highest_score_retrieval_instances和visualization/top50_lowest_score_retrieval_instances中包括最高和最低BM25分数的前50个示例。我们还包括每个数据集的前50个实例,而无需在visualization/first50_retrieval_instances中重新排序。
@article{wang2022zemi,
title={Zemi: Learning Zero-Shot Semi-Parametric Language Models from Multiple Tasks},
author={Wang, Zhenhailong and Pan, Xiaoman and Yu, Dian and Yu, Dong and Chen, Jianshu and Ji, Heng},
journal={arXiv preprint arXiv:2210.00185},
year={2022}
}