Langchain es de facto. Observa una gran popularidad últimamente para los desarrolladores que desean ingresar a la IA (inteligencia artificial) y construir aplicaciones basadas en AI.
Construí una aplicación de documentación Langchain muy básica. Podremos hacer algunas preguntas y obtener respuestas. Verá cómo dividimos nuestros diversos archivos en trozos y los colocamos en una base de datos vectorial utilizando incrustaciones. Utilizamos la base de datos Vector de Pinecone. Luego creamos una cadena que toma la consulta (rápida), la incrusta como un vector, luego toma un par de vectores que están más cerca del vector de consulta semánticamente y lo devuelve. Estos trozos relevantes pueden contener la respuesta o tener una alta probabilidad de contener la respuesta y solo se enviarán esos fragmentos a la LLM. De esa manera, solo hacemos un par de llamadas de API o incluso una y podemos ahorrar mucho dinero y obtener respuesta mucho más rápido y no hacer ningún trabajo redundante. Por lo tanto, pasamos el aviso más los fragmentos relevantes (contexto) al LLM para obtener la respuesta.
También podemos ver los documentos de origen que estábamos utilizados para recuperar la respuesta. Esto puede ser útil si queremos permitir que el usuario vea las fuentes utilizadas para generar la respuesta.
También queremos que nuestro chat tenga la capacidad de recordar y hacer referencia a cosas que preguntamos en el pasado al hablar con ChatGPT.
Para comenzar.
Clone the repository
git clone https://github.com/Ashot72/LangChain-Documentation-Helper
cd LangChain-Documentation-Helper
Add your keys to .env file
# installs dependencies
npm install
# to embed
npm run embed
# to run locally
npm start
Vaya a la página de video de Langchain Documation Helper
Vaya a Langchain Documentation Helper Descripción Página