Consulte https://github.com/neuspeech/eeg-to-text para o código corrigido e experimentos detalhados. Para evitar mais confusão, arquivamos este repositório.
Execute conda env create -f environment.yml para criar o ambiente do CONDA (chamado "eegtotext") usado em nossos experimentos.
.mat para ~/datasets/ZuCo/task1-SR/Matlab_files , ~/datasets/ZuCo/task2-NR/Matlab_files , ~/datasets/ZuCo/task3-TSR/Matlab_files respectivamente..mat para ~/datasets/ZuCo/task2-NR-2.0/Matlab_files . Execute bash ./scripts/prepare_dataset.sh para arquivos .mat pré -processado e preparar etiquetas de sentimentos.
Para cada tarefa, todos os arquivos .mat serão convertidos em um arquivo .pickle armazenado em ~/datasets/ZuCo/<task_name>/<task_name>-dataset.pickle .
O conjunto de dados de sentimentos para zuco ( sentiment_labels.json ) será armazenado em ~/datasets/ZuCo/task1-SR/sentiment_labels/sentiment_labels.json .
O conjunto de dados de sentimentos para o Stanford Sentiment Filled Sentiment Treebank será armazenado em ~/datasets/stanfordsentiment/ternary_dataset.json
Para treinar um modelo de decodificação EEG para texto, execute bash ./scripts/train_decoding.sh .
Para avaliar o modelo de decodificação de EEG para texto treinado a partir de cima, execute bash ./scripts/eval_decoding.sh .
Para configuração detalhada dos argumentos disponíveis, consulte a função get_config(case = 'train_decoding') em /config.py
Primeiro, treinamos o decodificador e o classificador individualmente e, em seguida, avaliamos o pipeline nos dados do ZUCO Task1-SR.
Para executar todo o processo de treinamento e avaliação, execute bash ./scripts/train_eval_zeroshot_pipeline.sh .
Para uma configuração detalhada dos argumentos disponíveis, consulte a função get_config(case = 'eval_sentiment') em /config.py
@inproceedings{wang2022open,
title={Open vocabulary electroencephalography-to-text decoding and zero-shot sentiment classification},
author={Wang, Zhenhailong and Ji, Heng},
booktitle={Proceedings of the AAAI Conference on Artificial Intelligence},
volume={36},
number={5},
pages={5350--5358},
year={2022}
}