Ha pasado un año desde que se lanzaron Torchmoji y Deepmoji. Estamos tratando de entender cómo se está utilizando de tal manera que podemos hacer mejoras y diseñar mejores modelos en el futuro.
Puede ayudarnos a lograr esto respondiendo este formulario de Google de 4 preguntas. ¡Gracias por tu apoyo!
Lea nuestra publicación de blog sobre el proceso de implementación aquí.
Torchmoji es una implementación de Pytorch del modelo Deepmoji desarrollado por Bjarke Felbo, Alan Mislove, Anders Søgaard, Iyad Rahwan y Sune Lehmann.
Este modelo entrenó en 1.200 millones de tweets con emojis para comprender cómo se usa el lenguaje para expresar emociones. A través del aprendizaje de transferencia, el modelo puede obtener un rendimiento de última generación en muchas tareas de modelado de texto relacionadas con la emoción.
¿Prueba la demostración en línea de Deepmoji sobre esto? ¡Espacio! Vea el documento, la publicación de blog o las preguntas frecuentes para obtener más detalles.
Para comenzar, eche un vistazo dentro de los ejemplos/ directorio. Consulte Score_texts_emojis.py para obtener cómo usar DeepmoJi para extraer predicciones de emoji, code_texts.py para cómo convertir el texto en vectores emocionales de 2304 dimensiones o finetune_youtube_last.py para cómo usar el modelo para transferir el aprendizaje en una nueva base de datos.
Considere citar el documento de Deepmoji si usa el modelo o código (consulte a continuación para obtener citas).
Suponemos que está utilizando Python 2.7-3.5 con PIP instalado.
Primero debe instalar Pytorch (versión 0.2+), actualmente por:
conda install pytorch -c pytorchEn la etapa actual, el modelo no puede hacer un uso eficiente de CUDA. Vea los detalles en la publicación del blog de abrazadera.
Cuando se instale Pytorch, ejecute lo siguiente en el directorio raíz para instalar las dependencias restantes:
pip install -e .Esto instalará las siguientes dependencias:
Luego, ejecute el script de descarga para descargar los pesos de torcmoji previos al detenido (~ 85mb) desde aquí y colóquelos en el modelo/ directorio:
python scripts/download_weights.pyPara ejecutar las pruebas, instale la nariz. Después de instalar, navegue a las pruebas/ directorio y ejecute:
cd tests
nosetests -vDe forma predeterminada, esto también ejecutará pruebas de Finetuning. Estas pruebas entrenan el modelo para una época y luego verifican la precisión resultante, que puede tardar varios minutos en terminar. Si prefiere excluirlos, ejecute lo siguiente en su lugar:
cd tests
nosetests -v -a ' !slow ' Este código ha sido probado para trabajar con Python 2.7 y 3.5 en Ubuntu 16.04 y MacOS Sierra Máquinas. No ha sido optimizado para la eficiencia, pero debe ser lo suficientemente rápido para la mayoría de los fines. No damos ninguna garantía de que no haya errores: ¡use el código por su propia responsabilidad!
Damos la bienvenida a las solicitudes de extracción si siente que algo podría mejorarse. También puede ayudarnos enormemente diciéndonos cómo se sintió al escribir sus tweets más recientes. Simplemente haga clic aquí para contribuir.
Este código y el modelo previamente se licencian bajo la licencia MIT.
Los conjuntos de datos de referencia se cargan a este repositorio solo para fines de conveniencia. No fueron liberados por nosotros y no reclamamos ningún derecho sobre ellos. Use los conjuntos de datos en su responsabilidad y asegúrese de cumplir con las licencias con las que fueron liberadas. Si utiliza alguno de los conjuntos de datos de referencia, considere citar a los autores originales.
@inproceedings{felbo2017,
title={Using millions of emoji occurrences to learn any-domain representations for detecting sentiment, emotion and sarcasm},
author={Felbo, Bjarke and Mislove, Alan and S{o}gaard, Anders and Rahwan, Iyad and Lehmann, Sune},
booktitle={Conference on Empirical Methods in Natural Language Processing (EMNLP)},
year={2017}
}