TempoSum
1.0.0
Dieses Repository enthält Daten für das Papier. Kann LMS auf zukünftige Daten verallgemeinern? Eine empirische Analyse zur Summarierung von Text
@inproceedings{temposum23,
title="{Can LMs Generalize to Future Data? An Empirical Analysis on Text Summarization}",
author = {Chi Seng Cheang and
Hou Pong Chan and
Derek F. Wong and
Xuebo Liu and
Zhaocong Li and
Yanming Sun and
Shudong Liu and
Lidia S. Chao},
booktitle = "Proceedings of the Conference on Empirical Methods in Natural Language Processing ({EMNLP})",
month = {December},
year = "2023",
publisher = "Association for Computational Linguistics",
}
Führen Sie die folgenden Befehle aus, um die Datensätze aus der HuggingFace -Datensätzenbibliothek zu laden.
import datasets
# BBC in-distribution test set
dataset = datasets . load_dataset ( 'chiseng-cheang/TempoSum' , 'BBC_in-distribution' )
# BBC future test set
dataset = datasets . load_dataset ( 'chiseng-cheang/TempoSum' , 'BBC_future' )
# CNN in-distribution test set
dataset = datasets . load_dataset ( 'chiseng-cheang/TempoSum' , 'CNN_in-distribution' )
# CNN future test set
dataset = datasets . load_dataset ( 'chiseng-cheang/TempoSum' , 'CNN_future' )Alle Datensätze sind auch verfügbar unter: https://drive.google.com/drive/Folders/1bdetfqoea8gd240h78pgxbo68e53ea9e?usp=sharing