Este repositorio contiene las muestras de código que permitirán a los participantes aprender cómo usar la arquitectura de enrutador de generación aumentada de recuperación (RAG) basada en el enrutador con Amazon Bedrock y Amazon OpenSearch Servidor (AOSS) para construir rápidamente un asistente seguro que use la información más actualizada para conversar con los usuarios. Los participantes también aprenderán cómo este asistente utilizará la recuperación de información guiada por diálogo para responder a los usuarios.
Amazon Bedrock es un servicio totalmente administrado que ofrece una selección de modelos de base de alto rendimiento (FMS) de las principales compañías de IA accesibles a través de una sola API, junto con un amplio conjunto de capacidades que necesita para crear aplicaciones generativas de IA, simplificando el desarrollo mientras mantiene la privacidad y la seguridad.
Los modelos de lenguaje grande (LLM) son un tipo de modelo de base que puede tomar el languge natural como entrada, con la capacidad de procesarlo y comprenderlo, y producir un lenguaje natural como salida. LLMS también puede realizar tareas como clasificación, resumen, simplificación, reconocimiento de entidades, etc.
Los LLM generalmente están entrenados fuera de línea con datos disponibles hasta ese momento. Como resultado, LLM no tendrá conocimiento del mundo después de esa fecha. Además, los LLM están capacitados en corpus de dominio muy general, lo que los hace menos efectivos para tareas específicas de dominio. Y luego, los LLM tienden a alucinar dónde genera texto incorrecto, sin sentido o no real. El uso de un mecanismo de generación de aumento de recuperación (RAG) puede ayudar a mitigar todos estos problemas. Una arquitectura de RAG implica recuperar datos que coinciden estrechamente con el texto en el aviso del usuario, desde una fuente de datos externa, y usarlo para aumentar el mensaje antes de enviar a la LLM. Este avance rápido proporcionará el contexto que el LLM puede usar para responder a la solicitud.
Cuando hay platos de datos Mulitple, es necesario enrutar la solicitud de retreal a la fuente de datos apropiada antes de realizar la recuperación real. Este es un patrón de enrutador de trapo.
Este repositorio contiene un código que lo guiará a través del proceso de construcción de un asistente de enrutador de trapo avanzado que utiliza un modelo de lenguaje grande (LLM) alojado en la roca madre de Amazon y utilizando bases de conocimiento para la base de Amazon para vectorizar, almacenar y recuperar datos a través de la búsqueda semántica. Amazon OpenSearch Serverless se utilizará como el índice Vector.
py312_opensearch-py_requests_and_requests-aws4auth.zip usando el siguiente procedimiento y cárguelo al mismo cubo de Amazon S3 que en el paso 3.C:/Program Files/7-Zip/ .cd en él.py312_opensearch-py_requests_and_requests-aws4auth.zip .cd en él.py312_opensearch-py_requests_and_requests-aws4auth.zip .Este repositorio contiene
Un cuaderno de Jupyter para comenzar.
Un conjunto de funciones auxiliar para el cuaderno
Diagramas de arquitectura que muestran los diversos componentes utilizados en esta sesión junto con sus interacciones.
Ver contribuyendo para más información.
Esta biblioteca tiene licencia bajo la licencia MIT-0. Ver el archivo de licencia.