Veuillez vous référer à https://github.com/neuspeech/eeg-to-text pour le code corrigé et les expériences détaillées. Pour éviter une nouvelle confusion, nous avons archivé ce repo.
Exécutez conda env create -f environment.yml pour créer l'environnement conda (nommé "eegtotext") utilisé dans nos expériences.
.mat vers ~/datasets/ZuCo/task1-SR/Matlab_files , ~/datasets/ZuCo/task2-NR/Matlab_files , ~/datasets/ZuCo/task3-TSR/Matlab_files respectivement.~/datasets/ZuCo/task2-NR-2.0/Matlab_files fichiers .mat Exécutez bash ./scripts/prepare_dataset.sh pour prétraiter les fichiers .mat et préparer les étiquettes du sentiment.
Pour chaque tâche, tous les fichiers .mat seront convertis en un fichier .pickle stocké dans ~/datasets/ZuCo/<task_name>/<task_name>-dataset.pickle .
L'ensemble de données de sentiment pour ZUCO ( sentiment_labels.json ) sera stocké dans ~/datasets/ZuCo/task1-SR/sentiment_labels/sentiment_labels.json .
Ensemble de données de sentiment pour STANFORD Sentiment TreeBank sera stocké dans ~/datasets/stanfordsentiment/ternary_dataset.json
Pour former un modèle de décodage EEG-Text, exécutez bash ./scripts/train_decoding.sh .
Pour évaluer le modèle de décodage EEG à texte formé par le haut, exécutez bash ./scripts/eval_decoding.sh .
Pour une configuration détaillée des arguments disponibles, veuillez vous référer à la fonction get_config(case = 'train_decoding') dans /config.py
Nous formons d'abord le décodeur et le classificateur individuellement, puis nous évaluons le pipeline sur les données ZUCO TASK1-SR.
Pour exécuter l'ensemble du processus de formation et d'évaluation, exécutez bash ./scripts/train_eval_zeroshot_pipeline.sh .
Pour une configuration détaillée des arguments disponibles, veuillez vous référer à la fonction get_config(case = 'eval_sentiment') dans /config.py
@inproceedings{wang2022open,
title={Open vocabulary electroencephalography-to-text decoding and zero-shot sentiment classification},
author={Wang, Zhenhailong and Ji, Heng},
booktitle={Proceedings of the AAAI Conference on Artificial Intelligence},
volume={36},
number={5},
pages={5350--5358},
year={2022}
}