Résumé de l'article de recherche: une approche intégrée avec des méthodes abstractives et une technologie de chiffon
Aperçu du projet
Ce projet vise à développer un système complet pour résumer les articles de recherche, combinant les dernières progrès de l'IA et de la PNL. Il englobe deux méthodologies principales:
- Résumé du texte abstractif : Utilisation de réseaux de neurones profonds avec un coder-décodeur et un mécanisme d'attention, cette méthode vise à générer des résumés concis et paraphrasés des articles de recherche.
- Intégration des LLM et de la technologie des chiffons : exploiter les capacités des modèles de grande langue (LLMS) et la génération (RAG) (RAG) (RAG), cette approche se concentre sur la production de résumés interactifs et l'extraction de précieuses idées des articles de recherche.
Méthodologie
Résumé de texte abstrait
- Objectif: produire des résumés paraphrasés encapsulant les idées de base des articles de recherche.
- Techniques: modèle d'encodeur avec mécanisme d'attention, apprentissage du transfert.
Modèles de grande langue et technologie de chiffon
- Objectif: utiliser des LLM pour une résumé interactif.
- Processus: affineur Lamini LLM, développer des graphiques de connaissances avec NEO4J et mettre en œuvre la méthodologie des chiffons.
Source de données
Les principales sources de données sont des articles de recherche de divers domaines, en se concentrant sur leurs sections d'introduction, de méthodologie et de conclusion.
️ Limites
- Dépendance à la disponibilité et à la qualité des données sur les documents de recherche.
- La nature diversifiée des articles de recherche pourrait remettre en question le processus de résumé.
- Fonction d'extension des ressources de LLMS.
- Défis potentiels imprévus avec la méthodologie des chiffons.
? Conclusion
Notre projet cherche à fusionner le résumé de texte abstrait avec les LLM et la technologie des chiffons pour développer une approche unique pour extraire les informations des articles de recherche.
? Références
- Wu Minghao et al. "Lamini-LM: un troupeau diversifié de modèles distillés à partir d'instructions à grande échelle." ARXIV Préprint Arxiv: 2304.14402 (2023).
- Lewis Patrick et al. "Génération auprès de la récupération pour les tâches NLP à forte intensité de connaissances." Avances dans les systèmes de traitement des informations neuronales 33 (2020): 9459-9474.
- Nallapati Ramesh et al. "Résumé de texte abstrait à l'aide de RNN de séquence à séquence et au-delà." ARXIV Préprint Arxiv: 1602.06023 (2016).
Contributeurs du projet: Smit Shah, Mayur Bhanushali, Indrajeet Roy