TempoSum
1.0.0
Ce référentiel contient des données pour le document que LMS peut-on se généraliser aux données futures? Une analyse empirique sur le résumé de texte
@inproceedings{temposum23,
title="{Can LMs Generalize to Future Data? An Empirical Analysis on Text Summarization}",
author = {Chi Seng Cheang and
Hou Pong Chan and
Derek F. Wong and
Xuebo Liu and
Zhaocong Li and
Yanming Sun and
Shudong Liu and
Lidia S. Chao},
booktitle = "Proceedings of the Conference on Empirical Methods in Natural Language Processing ({EMNLP})",
month = {December},
year = "2023",
publisher = "Association for Computational Linguistics",
}
Exécutez les commandes suivantes pour charger les ensembles de données à partir de la bibliothèque de jeux de données HuggingFace.
import datasets
# BBC in-distribution test set
dataset = datasets . load_dataset ( 'chiseng-cheang/TempoSum' , 'BBC_in-distribution' )
# BBC future test set
dataset = datasets . load_dataset ( 'chiseng-cheang/TempoSum' , 'BBC_future' )
# CNN in-distribution test set
dataset = datasets . load_dataset ( 'chiseng-cheang/TempoSum' , 'CNN_in-distribution' )
# CNN future test set
dataset = datasets . load_dataset ( 'chiseng-cheang/TempoSum' , 'CNN_future' )Tous les ensembles de données sont également disponibles sur: https://drive.google.com/drive/folders/1bdetfqoea8gd240h78pgxbo68e53ea9e?usp=sharing