Analyse des sentiments basés sur l'aspect, implémentations de Pytorch.
基于方面的情感分析 , 使用 Pytorch 实现。
Pour installer les exigences, exécutez pip install -r requirements.txt .
python train.py --model_name bert_spc --dataset restaurantPour la formation / l'inférence flexible et l'extraction des termes d'aspect, essayez PYABSA, qui comprend tous les modèles de ce référentiel.
Qiu, Xipeng, et al. "Modèles pré-formés pour le traitement du langage naturel: une enquête." ARXIV Préprint Arxiv: 2003.08271 (2020). [PDF]
Zhang, Lei, Shuai Wang et Bing Liu. "Apprentissage en profondeur pour l'analyse des sentiments: une enquête." ARXIV Préprint Arxiv: 1801.07883 (2018). [PDF]
Young, Tom, et al. "Tendances récentes du traitement du langage naturel basé sur l'apprentissage en profondeur." ARXIV Préprint Arxiv: 1708.02709 (2017). [PDF]
Rietzler, Alexander, et al. "Adapter ou être laissé pour compte: adaptation du domaine via le modèle de langue Bert Finetuning pour la classification du sentiment aspect-cible." ARXIV Préprint Arxiv: 1908.11860 (2019). [PDF]
Xu, Hu, et al. "Bert après la formation pour la compréhension de la lecture et l'analyse des sentiments basés sur les aspects." ARXIV Préprint Arxiv: 1904.02232 (2019). [PDF]
Sun, Chi, Luyao Huang et Xipeng Qiu. "Utiliser Bert pour l'analyse des sentiments basés sur l'aspect via la construction de la phrase auxiliaire." ARXIV Préprint Arxiv: 1903.09588 (2019). [PDF]
Zeng Biqing, Yang Heng, et al. "LCF: un mécanisme de concentration du contexte local pour la classification des sentiments basés sur l'aspect." Sciences appliquées. 2019, 9, 3389. [PDF]
Chanson, Youwei, et al. "Réseau de l'encodeur attentionnel pour la classification des sentiments ciblés." ARXIV Préprint Arxiv: 1902.09314 (2019). [PDF]
Devlin, Jacob, et al. "Bert: pré-formation des transformateurs bidirectionnels profonds pour la compréhension du langage." ARXIV Préprint Arxiv: 1810.04805 (2018). [PDF]
Zhang, Chen et al. "Classification des sentiments basés sur l'aspect avec des réseaux de convolution de graphiques spécifiques à l'aspect." Actes de la conférence de 2019 sur les méthodes empiriques en matière de traitement du langage naturel. 2019. [PDF]
Fan, Feifan et al. "Réseau d'attention à grains multiples pour la classification des sentiments au niveau de l'aspect." Actes de la conférence de 2018 sur les méthodes empiriques en matière de traitement du langage naturel. 2018. [PDF]
Huang, Binxuan et al. "Classification des sentiments au niveau de l'aspect avec des réseaux de neurones de l'attention." ARXIV Préprint Arxiv: 1804.06536 (2018). [PDF]
Li, Xin et al. "Réseaux de transformation pour la classification des sentiments orientés cible." ARXIV Préprint Arxiv: 1805.01086 (2018). [PDF]
Liu, Qiao, et al. "Modèle d'attention du contenu pour l'analyse des sentiments basés sur l'aspect." Actes de la conférence World Wide Web 2018 sur World Wide Web. Comité directeur international des conférences du World Wide Web, 2018.
Chen, Peng, et al. "Réseau d'attention récurrente sur la mémoire pour l'analyse des sentiments de l'aspect." Actes de la conférence de 2017 sur les méthodes empiriques en matière de traitement du langage naturel. 2017. [PDF]
Tang, Duyu, B. Qin et T. Liu. "Classification du sentiment de niveau d'aspect avec un réseau de mémoire profonde." Conférence sur les méthodes empiriques dans le traitement du langage naturel 2016: 214-224. [PDF]
MA, Dehong, et al. "Réseaux d'attention interactifs pour la classification des sentiments au niveau de l'aspect." ARXIV Préprint Arxiv: 1709.00893 (2017). [PDF]
Wang, Yequan, Minlie Huang et Li Zhao. "LSTM basé sur l'attention pour la classification des sentiments au niveau de l'aspect." Actes de la conférence de 2016 sur les méthodes empiriques en matière de traitement du langage naturel. 2016.
Tang, Duyu, et al. "LSTMS efficaces pour la classification des sentiments dépendants de la cible." Actes de Coling 2016, la 26e Conférence internationale sur la linguistique informatique: articles techniques. 2016. [PDF]
Hochreiter, Sepp et Jürgen Schmidhuber. "Mémoire à court terme." Neural Computation 9.8 (1997): 1735-1780. [PDF]
Si vous utilisez la série RTX30, il peut y avoir des problèmes de compatibilité entre les versions installées / requises de Torch, CUDA. Dans ce cas, essayez d'utiliser requirements_rtx30.txt au lieu de requirements.txt .
Merci à ces gens merveilleux:
Alberto Paz | Jiangtao | Whereismyhead | Songyouwei | Yangheng | rmarcacini | Yikai Zhang |
Alexey Naiden | hbeybutyan | Pradeesh |
Ce projet suit les spécifications de tous les contributeurs. Contributions de toute nature bienvenue!
Mit