Ce référentiel contient les échantillons de code qui permettra aux participants d'apprendre à utiliser l'architecture basée sur le routeur de génération augmentée (RAG) de récupération avec Amazon Bedrock et Amazon OpenSesearch Serverless (AOS) pour créer rapidement un assistant sécurisé qui utilise les informations les plus à jour pour Converse avec les utilisateurs. Les participants apprendront également comment cet assistant utilisera la récupération d'informations guidées par le dialogue pour répondre aux utilisateurs.
Amazon Bedrock est un service entièrement géré qui offre un choix de modèles de fondation (FMS) très performants des principales sociétés d'IA accessibles via une seule API, ainsi qu'un large ensemble de capacités dont vous avez besoin pour créer des applications d'IA génératives, simplifiant le développement tout en maintenant la confidentialité et la sécurité.
Les modèles de grands langues (LLM) sont un type de modèle de fondation qui peut prendre le langauge naturel comme entrée, avec la capacité de le traiter et de le comprendre, et de produire un langage naturel comme sortie. Les LLM peuvent également effectuer des tâches comme la classification, le résumé, la simplification, la reconnaissance des entités, etc.
Les LLM sont généralement formées hors ligne avec des données disponibles jusqu'au moment. En conséquence, les LLM n'auront pas de connaissance du monde après cette date. De plus, les LLM sont formées sur des corpus de domaine très généraux, ce qui les rend moins efficaces pour les tâches spécifiques au domaine. Et puis, les LLM ont tendance à halluciner où le modèle génère du texte incorrect, absurde ou pas réel. L'utilisation d'un mécanisme de génération d'augmentation (RAG) de récupération peut aider à atténuer tous ces problèmes. Une architecture de chiffon implique la récupération de données qui correspondent étroitement au texte dans l'invite de l'utilisateur, à partir d'une source de données externe, et en l'utilisant pour augmenter l'invite avant d'envoyer au LLM. Cette augmentation invite fournira le contexte que le LLM peut utiliser pour répondre à l'invite.
Lorsqu'il y a des données de données Mulitple, il est nécessaire d'acheter la demande de retreival vers la source de données appropriée avant d'effectuer la récupération réelle. Ceci est un motif de routeur de chiffon.
Ce référentiel contient du code qui vous guidera à travers le processus de création d'un assistant avancé basé sur un routeur de chiffon à l'aide d'un modèle de langage grand (LLM) hébergé sur le fondement d'Amazon et à l'aide de bases de connaissances pour le substratum rocheux d'Amazon pour la vectorisation, le stockage et la récupération des données par la recherche sémantique. Amazon OpenSesearch Serverless sera utilisé comme index vectoriel.
py312_opensearch-py_requests_and_requests-aws4auth.zip using the following procedure and upload it to the same Amazon S3 bucket as in step 3.C:/Program Files/7-Zip/ .cd into it.py312_opensearch-py_requests_and_requests-aws4auth.zip .cd into it.py312_opensearch-py_requests_and_requests-aws4auth.zip .Ce référentiel contient
Un cahier Jupyter pour commencer.
Un ensemble de fonctions d'assistance pour le cahier
Diagrammes d'architecture qui montrent les différents composants utilisés dans cette session avec leurs interactions.
Voir contribuer pour plus d'informations.
Cette bibliothèque est autorisée sous la licence MIT-0. Voir le fichier de licence.