Die Online -Demo ist nicht mehr verfügbar, da wir das Zertifikat nicht erneuern können. Der Code in diesem Repo funktioniert immer noch, aber Sie müssen möglicherweise einige Änderungen vornehmen, damit er in Python 3 arbeitet (siehe offene PRS). Sie können auch die Pytorch -Version dieses Algorithmus namens Torchmoji ansehen, das von Huggingface hergestellt wurde.
(Klicken Sie auf Bild, um die Videovorführung zu erhalten)
Deepmoji ist ein Modell, das auf 1,2 Milliarden Tweets mit Emojis trainiert wurde, um zu verstehen, wie Sprache verwendet wird, um Emotionen auszudrücken. Durch Transferlernen kann das Modell eine modernste Leistung bei vielen emotionalen Textmodellierungsaufgaben erhalten.
Weitere Informationen finden Sie im Papier- oder Blog -Beitrag.
Schauen Sie zunächst in die Beispiele/ Verzeichnis. Siehe Score_Texts_Emojis.py, um mit DeepMoji Emoji-Vorhersagen zu extrahieren, codieren_texts.py, um Text in 2304-dimensionale emotionale Funktionsvektoren oder finetune_youtube_last.py umzuwandeln
Bitte erwägen Sie, unser Papier zu zitieren, wenn Sie unser Modell oder Code verwenden (siehe unten für Zitierungen).
Dieser Code basiert auf Keras, für die entweder Theano oder TensorFlow als Backend erforderlich ist. Wenn Sie Pytorch lieber verwenden möchten, gibt es hier eine Implementierung, die von Thomas Wolf freundlicherweise bereitgestellt wurde.
Wir gehen davon aus, dass Sie Python 2.7 mit einem installierten PIP verwenden. Als Backend müssen Sie entweder Theano (Version 0.9+) oder TensorFlow (Version 1.3+) installieren. Sobald dies erledigt ist, müssen Sie im Root -Verzeichnis Folgendes ausführen, um die verbleibenden Abhängigkeiten zu installieren:
pip install -e .Dadurch werden die folgenden Abhängigkeiten installiert:
Stellen Sie sicher, dass Keras Ihr ausgewähltes Backend verwendet. Die Anweisungen finden Sie hier unter dem Umschalten von einem Backend zu einem anderen Abschnitt.
Führen Sie das mitgelieferte Skript aus, das die vorgezogenen Deepmoji -Gewichte (~ 85 MB) von hier herunterlädt und sie in das Modell/ das Verzeichnis platziert:
python scripts/download_weights.pyUm die Tests durchzuführen, installieren Sie die Nase. Navigieren Sie nach der Installation zu den Tests/ Verzeichnissen und führen Sie aus:
nosetests -vStandardmäßig wird dies auch Finetuning -Tests ausgeführt. Diese Tests trainieren das Modell für eine Epoche und überprüfen dann die resultierende Genauigkeit, die einige Minuten dauern kann, bis es fertig ist. Wenn Sie diese lieber ausschließen möchten, führen Sie stattdessen Folgendes aus:
nosetests -v -a ' !slow ' Dieser Code wurde getestet, um mit Python 2.7 auf einer Ubuntu 16.04 -Maschine zu arbeiten. Es wurde nicht für die Effizienz optimiert, sollte aber für die meisten Zwecke schnell genug sein. Wir geben keine Garantien dafür, dass es keine Fehler gibt - verwenden Sie den Code für Ihre eigene Verantwortung!
Wir begrüßen Anfragen, wenn Sie das Gefühl haben, etwas zu verbessern. Sie können uns auch sehr helfen, indem Sie uns sagen, wie Sie sich beim Schreiben Ihrer letzten Tweets gefühlt haben. Klicken Sie einfach hier, um einen Beitrag zu leisten.
Dieser Code und das vorbereitete Modell sind unter der MIT -Lizenz lizenziert.
Die Benchmark -Datensätze werden nur aus Gründen der Zwecke in dieses Repository hochgeladen. Sie wurden nicht von uns freigelassen und wir beanspruchen keine Rechte an ihnen. Verwenden Sie die Datensätze zu Ihrer Verantwortung und stellen Sie sicher, dass Sie die Lizenzen erfüllen, mit denen sie veröffentlicht wurden. Wenn Sie eine der Benchmark -Datensätze verwenden, sollten Sie die ursprünglichen Autoren zitieren.
Wir können unseren großen Twitter -Datensatz mit Tweets leider aufgrund von Lizenzbeschränkungen nicht veröffentlichen.
@inproceedings{felbo2017,
title={Using millions of emoji occurrences to learn any-domain representations for detecting sentiment, emotion and sarcasm},
author={Felbo, Bjarke and Mislove, Alan and S{o}gaard, Anders and Rahwan, Iyad and Lehmann, Sune},
booktitle={Conference on Empirical Methods in Natural Language Processing (EMNLP)},
year={2017}
}