Langchain é de fato ir para a estrutura para a construção de aplicativos baseados em LLM (modelo de idioma grande). Ultimamente, ele ganha enorme popularidade para os desenvolvedores que desejam entrar na IA (inteligência artificial) e criar aplicativos baseados em IA.
Eu criei o aplicativo Helper Langchain Node.JS muito básico usando LLM (Modelo de Idioma Grande). Poderemos fazer algumas perguntas e obter respostas. Você verá como dividimos nossos vários arquivos em pedaços e os colocamos em um banco de dados vetorial usando incorporação. Usamos o banco de dados vetorial Pinecone. Em seguida, criamos uma corrente que pega a consulta (prompt), a incorpora como um vetor e leva alguns vetores mais próximos do vetor de consulta semanticamente e a devolve. Esses pedaços relevantes podem conter a resposta ou ter uma alta probabilidade de conter a resposta e somente esses pedaços serão enviados ao LLM. Dessa forma, fazemos apenas algumas chamadas de API ou até uma e podemos economizar muito dinheiro e obter resposta muito mais rápida e não fazer nenhum trabalho redundante. Então, passamos o prompt mais os pedaços relevantes (contexto) para o LLM para obter a resposta.
Também podemos visualizar documentos de origem que fomos usados para recuperar a resposta. Isso pode ser útil se queremos permitir que o usuário veja as fontes usadas para gerar a resposta.
Também queremos que nosso bate -papo tenha a capacidade de lembrar e fazer referência a coisas que pedimos no passado ao conversar com o Chatgpt.
Para começar.
Clone the repository
git clone https://github.com/Ashot72/LangChain-Documentation-Helper
cd LangChain-Documentation-Helper
Add your keys to .env file
# installs dependencies
npm install
# to embed
npm run embed
# to run locally
npm start
Vá para a página de vídeo auxiliar de documentação de Langchain
Vá para Langchain Documentation Helper Descrição Página