Una aplicación web basada en IA que proporciona resúmenes concisos de artículos utilizando técnicas avanzadas de procesamiento del lenguaje natural (PNL).
Artículo-Summarizer-Using-AI es una aplicación web diseñada para resumir artículos largos utilizando PNL. La aplicación permite a los usuarios cargar sus propios artículos o usar datos de muestra para generar resúmenes en varios estilos, utilizando un modelo de IA generativo.
El conjunto de datos utilizado para la capacitación y la evaluación es el conjunto de datos de resumen de PubMed. Incluye artículos de PubMed con resúmenes correspondientes utilizados como resúmenes.
Cargando el conjunto de datos :
from datasets import load_dataset
pubmed_data = load_dataset ( "ccdv/pubmed-summarization" , split = 'train[:1000]' )Limpieza de datos inicial :
pubmed_data = pubmed_data . filter ( lambda x : x [ 'article' ] is not None and x [ 'abstract' ] is not None )Análisis de datos exploratorios :
print ( pubmed_data [ 0 ]) # View the first data entry Tokenización de texto :
from nltk . tokenize import sent_tokenize , word_tokenize
sentences = sent_tokenize ( article_text )
words = word_tokenize ( sentence )Detener las palabras de eliminación :
from nltk . corpus import stopwords
stop_words = set ( stopwords . words ( 'english' ))
words = [ word for word in words if word . lower () not in stop_words ]Lemmatización :
from nltk . stem import WordNetLemmatizer
lemmatizer = WordNetLemmatizer ()
words = [ lemmatizer . lemmatize ( word . lower ()) for word in words ]Configuración de API :
google.generativeai para la generación de modelos. import google . generativeai as genai
import os
api_key = os . environ . get ( 'your_api_key' )
genai . configure ( api_key = api_key )Inicialización del modelo :
model = genai . GenerativeModel ()Atrae el modelo con el conjunto de datos PubMed para mejorar la calidad de resumen.
# Example pseudo-code for fine-tuning
model . train ( dataset = pubmed_data , epochs = 10 , learning_rate = 0.001 )Para el resumen extractivo, la aplicación utiliza técnicas NLP tradicionales para identificar oraciones clave del artículo sin depender de un modelo generativo.
Script de resumen extractivo :
Cambie el nombre de los extractive_summary.py proporcionados a app.py y muévalo a la raíz del proyecto:
mv /mnt/data/extractive_summary.py app.pyLógica del núcleo :
# Example of extractive summarization
def extractive_summary ( text ):
# Tokenize the text and rank sentences
sentences = sent_tokenize ( text )
# Rank and select key sentences (pseudo-code)
summary = ' ' . join ( sentences [: 3 ]) # Example: Select first 3 sentences
return summaryIntegración :
@ app . route ( '/summarize' , methods = [ 'POST' ])
def summarize ():
if 'file' in request . files and request . files [ 'file' ]. filename != '' :
file = request . files [ 'file' ]
article_text = file . read (). decode ( "utf-8" )
else :
sample_index = int ( request . form [ 'sample' ])
article_text = pubmed_data [ sample_index ][ 'article' ]
style = request . form . get ( 'style' , 'brief' )
summary_method = request . form . get ( 'method' , 'generative' )
if summary_method == 'generative' :
summary_text = preprocess_and_summarize ( article_text , style )
else :
summary_text = extractive_summary ( article_text )
return render_template ( 'result.html' , original = article_text , summary = summary_text )Evalúe el rendimiento del modelo utilizando métricas como Rouge o Bleu.
from nltk . translate . bleu_score import sentence_bleu
reference = [ reference_summary . split ()]
candidate = generated_summary . split ()
score = sentence_bleu ( reference , candidate )
print ( f'BLEU Score: { score } ' )Configuración del frasco :
from flask import Flask
from flask_login import LoginManager
app = Flask ( __name__ )
app . secret_key = 'your_secret_key'
login_manager = LoginManager ( app )Rutas y autenticación :
@ app . route ( '/login' , methods = [ 'GET' , 'POST' ])
def login ():
# login logic here
return render_template ( 'login.html' )Plantillas :
<!-- templates/index.html -->
< form action =" {{ url_for('summarize') }} " method =" post " enctype =" multipart/form-data " >
< input type =" file " name =" file " >
< button type =" submit " > Summarize </ button >
</ form >Experiencia del usuario :
Clon el repositorio :
git clone https://github.com/yourusername/Article-Summarizer-Using-AI.gitNavegue al directorio del proyecto :
cd Article-Summarizer-Using-AICrear un entorno virtual :
python -m venv venv
source venv/bin/activate # On Windows use `venvScriptsactivate`Instalar dependencias :
pip install -r requirements.txtEstablecer variables de entorno :
.env con su clave API. your_api_key=<YOUR_GENERATIVE_AI_API_KEY>
Descargar datos NLTK :
El script maneja la descarga de datos NLTK necesarios.
Ejecute la aplicación :
flask run --port=5001Acceda a la aplicación :
http://127.0.0.1:5001 en su navegador.Iniciar sesión/registrarse :
Resumir los artículos :
Ver resumen :
¡Gracias por usar Artículo-Summarizer-Using-AI ! Esperamos que lo encuentre útil para sus necesidades de resumen.