Esse repositório contém as amostras de código que permitirão que os participantes aprendam a usar a arquitetura baseada no roteador de geração aumentada de recuperação (RAG) com a Amazon Bedrock e a Amazon OpenSearch Sem Server (AOSS) para criar rapidamente um assistente seguro que usa as informações mais atualizadas para converse com os usuários. Os participantes também aprenderão como esse assistente usará a recuperação de informações guiadas por diálogo para responder aos usuários.
A Amazon Bedrock é um serviço totalmente gerenciado que oferece uma escolha de modelos de fundação de alto desempenho (SFMs) das principais empresas de IA acessíveis através de uma única API, juntamente com um amplo conjunto de recursos necessários para criar aplicativos de IA generativos, simplificando o desenvolvimento, mantendo a privacidade e a segurança.
Os grandes modelos de linguagem (LLMs) são um tipo de modelo de fundação que pode tomar o Langauge natural como entrada, com a capacidade de processar e entendê -lo e produzir linguagem natural como saída. Os LLMs também podem executar tarefas como classificação, resumo, simplificação, reconhecimento de entidades, etc.
Os LLMs geralmente são treinados offline com dados disponíveis até aquele momento. Como resultado, os LLMs não terão conhecimento do mundo após essa data. Além disso, os LLMs são treinados em corpora de domínio muito geral, tornando-os menos eficazes para tarefas específicas de domínio. E então, os LLMs tendem a alucinar onde o modelo gera texto incorreto, absurdo ou não real. O uso de um mecanismo de geração de aumento de recuperação (RAG) pode ajudar a mitigar todos esses problemas. Uma arquitetura RAG envolve a recuperação de dados que correspondem de perto ao texto no prompt do usuário, de uma fonte de dados externa e usá -los para aumentar o prompt antes de enviar para o LLM. Esse aumento de um aumento fornecerá o contexto que o LLM pode usar para responder ao prompt.
Quando existem fontes de dados Mulitple, é necessário rotear a solicitação de retraca para a fonte de dados apropriada antes de executar a recuperação real. Este é um padrão de roteador de pano.
Esse repositório contém código que o levará ao processo de criação de um assistente avançado baseado no roteador de trapos usando um modelo de idioma grande (LLM) hospedado no Amazon Bedrock e usando bases de conhecimento para a Amazon Bedrock para vetorização, armazenamento e retirada de dados por meio de pesquisa semântica. O Amazon OpenSearch Serverless será usado como índice de vetor.
py312_opensearch-py_requests_and_requests-aws4auth.zip usando o procedimento a seguir e enviá-lo para o mesmo balde do Amazon S3 da Etapa 3.C:/Program Files/7-Zip/ .cd nele.py312_opensearch-py_requests_and_requests-aws4auth.zip .cd nele.py312_opensearch-py_requests_and_requests-aws4auth.zip .Este repositório contém
Um caderno Jupyter para começar.
Um conjunto de funções auxiliares para o caderno
Diagramas de arquitetura que mostram os vários componentes usados nesta sessão, juntamente com suas interações.
Consulte contribuindo para mais informações.
Esta biblioteca está licenciada sob a licença MIT-0. Veja o arquivo de licença.