Análisis de sentimientos basado en el aspecto, implementaciones de Pytorch.
基于方面的情感分析 使用 使用 pytorch 实现。
Para instalar los requisitos, ejecute pip install -r requirements.txt .
python train.py --model_name bert_spc --dataset restaurantPara la extracción flexible de entrenamiento/inferencia y término de aspecto, pruebe Pyabsa, que incluye todos los modelos en este repositorio.
Qiu, Xipeng, et al. "Modelos previamente capacitados para el procesamiento del lenguaje natural: una encuesta". ARXIV Preprint ARXIV: 2003.08271 (2020). [PDF]
Zhang, Lei, Shuai Wang y Bing Liu. "Aprendizaje profundo para el análisis de sentimientos: una encuesta". ARXIV Preprint ARXIV: 1801.07883 (2018). [PDF]
Young, Tom, et al. "Tendencias recientes en el procesamiento del lenguaje natural basado en el aprendizaje profundo". ARXIV Preprint ARXIV: 1708.02709 (2017). [PDF]
Rietzler, Alexander, et al. "Adapte o quede atrás: Adaptación de dominio a través de Finetuning del modelo de lenguaje BERT para la clasificación de sentimientos de objetivo de aspecto". ARXIV Preprint ARXIV: 1908.11860 (2019). [PDF]
Xu, Hu, et al. "Bert después de la capacitación para la comprensión de la lectura de revisión y el análisis de sentimientos basados en aspectos". ARXIV Preprint ARXIV: 1904.02232 (2019). [PDF]
Sun, Chi, Luyao Huang y Xipeng Qiu. "Utilizando BERT para el análisis de sentimientos basado en aspectos mediante la construcción de oraciones auxiliares". Arxiv Preprint ARXIV: 1903.09588 (2019). [PDF]
Zeng Biqing, Yang Heng, et al. "LCF: un mecanismo de enfoque de contexto local para la clasificación de sentimientos basados en aspectos". Ciencias aplicadas. 2019, 9, 3389. [PDF]
Song, Youwei, et al. "Red de codificadores atencionales para la clasificación de sentimientos dirigidos". ARXIV Preprint ARXIV: 1902.09314 (2019). [PDF]
Devlin, Jacob, et al. "Bert: pretruento de transformadores bidireccionales profundos para la comprensión del lenguaje". ARXIV Preprint ARXIV: 1810.04805 (2018). [PDF]
Zhang, Chen, et al. "Clasificación de sentimientos basados en aspectos con redes convolucionales de gráficos específicas de aspecto". Actas de la Conferencia de 2019 sobre métodos empíricos en procesamiento del lenguaje natural. 2019. [PDF]
Fan, Feifan, et al. "Red de atención múltiple para la clasificación de sentimientos a nivel de aspecto". Actas de la Conferencia de 2018 sobre métodos empíricos en procesamiento del lenguaje natural. 2018. [PDF]
Huang, Binxuan, et al. "Clasificación de sentimientos a nivel de aspecto con redes neuronales de atención sobre atención". ARXIV Preprint ARXIV: 1804.06536 (2018). [PDF]
Li, Xin, et al. "Redes de transformación para la clasificación de sentimientos orientados al objetivo". ARXIV Preprint ARXIV: 1805.01086 (2018). [PDF]
Liu, Qiao, et al. "Modelo de atención de contenido para el análisis de sentimientos basado en el aspecto". Actas de la Conferencia World Wide Web World Web 2018 en World Wide Web. Comité Directivo Internacional de Conferencias World Wide Web, 2018.
Chen, Peng, et al. "Red de atención recurrente en la memoria para el análisis de sentimientos de aspecto". Actas de la Conferencia de 2017 sobre métodos empíricos en procesamiento del lenguaje natural. 2017. [PDF]
Tang, Duyu, B. Qin y T. Liu. "Clasificación de sentimiento de nivel de aspecto con una red de memoria profunda". Conferencia sobre métodos empíricos en procesamiento del lenguaje natural 2016: 214-224. [PDF]
MA, Dehong, et al. "Redes de atención interactiva para la clasificación de sentimientos a nivel de aspecto". Arxiv Preprint ARXIV: 1709.00893 (2017). [PDF]
Wang, Yequan, Minlie Huang y Li Zhao. "LSTM basado en la atención para la clasificación de sentimientos a nivel de aspecto". Actas de la conferencia de 2016 sobre métodos empíricos en procesamiento del lenguaje natural. 2016.
Tang, Duyu, et al. "LSTM efectivos para la clasificación de sentimientos dependientes del objetivo". Actas de Coling 2016, la 26ª Conferencia Internacional sobre Lingüística Computacional: documentos técnicos. 2016. [PDF]
Hochreiter, Sepp y Jürgen Schmidhuber. "Memoria a largo plazo a corto plazo". Computación neural 9.8 (1997): 1735-1780. [PDF]
Si se ejecuta en la serie RTX30, puede haber algunos problemas de compatibilidad entre las versiones instaladas/requeridas de antorcha, CUDA. En ese caso, intente usar requirements_rtx30.txt en lugar de requirements.txt .
Gracias a estas maravillosas personas:
Alberto Paz | jiangtao | Donde | Songyouwei | Yangheng | rmarcacini | Yikai Zhang |
Alexey Naiden | hbeybutyan | Pradeesh |
Este proyecto sigue la especificación de todos los contribuyentes. ¡Contribuciones de cualquier tipo bienvenido!
MIT