Silakan merujuk ke https://github.com/neuspeech/eeg-to-text untuk kode yang dikoreksi dan eksperimen terperinci. Untuk menghindari kebingungan lebih lanjut, kami mengarsipkan repo ini.
Jalankan conda env create -f environment.yml untuk menciptakan lingkungan Conda (bernama "Eegtotext") yang digunakan dalam percobaan kami.
.mat ke ~/datasets/ZuCo/task1-SR/Matlab_files , ~/datasets/ZuCo/task2-NR/Matlab_files , ~/datasets/ZuCo/task3-TSR/Matlab_files .~/datasets/ZuCo/task2-NR-2.0/Matlab_files , unzip dan pindahkan semua file .mat Jalankan bash ./scripts/prepare_dataset.sh ke preprocess .mat file dan menyiapkan label sentimen.
Untuk setiap tugas, semua file .mat akan dikonversi menjadi satu file .pickle yang disimpan di ~/datasets/ZuCo/<task_name>/<task_name>-dataset.pickle .
Dataset sentimen untuk ZUCO ( sentiment_labels.json ) akan disimpan dalam ~/datasets/ZuCo/task1-SR/sentiment_labels/sentiment_labels.json .
Dataset Sentimen untuk Stanford Sentiment yang disaring Treebank akan disimpan dalam ~/datasets/stanfordsentiment/ternary_dataset.json
Untuk melatih model decoding EEG-to-Text, jalankan bash ./scripts/train_decoding.sh .
Untuk mengevaluasi model decoding EEG-to-Text terlatih dari atas, jalankan bash ./scripts/eval_decoding.sh .
Untuk konfigurasi terperinci dari argumen yang tersedia, silakan merujuk ke fungsi get_config(case = 'train_decoding') di /config.py
Kami pertama-tama melatih decoder dan classifier secara individual, dan kemudian kami mengevaluasi pipa pada data ZUCO Task1-SR.
Untuk menjalankan seluruh proses pelatihan dan evaluasi, jalankan bash ./scripts/train_eval_zeroshot_pipeline.sh .
Untuk konfigurasi terperinci dari argumen yang tersedia, silakan merujuk ke fungsi get_config(case = 'eval_sentiment') di /config.py
@inproceedings{wang2022open,
title={Open vocabulary electroencephalography-to-text decoding and zero-shot sentiment classification},
author={Wang, Zhenhailong and Ji, Heng},
booktitle={Proceedings of the AAAI Conference on Artificial Intelligence},
volume={36},
number={5},
pages={5350--5358},
year={2022}
}