Langchain de facto pergi ke kerangka kerja untuk membangun aplikasi berbasis LLM (model bahasa besar). Ini mendapatkan popularitas besar akhir -akhir ini bagi pengembang yang ingin masuk ke AI (kecerdasan buatan) dan untuk membangun aplikasi berbasis AI.
Saya membangun aplikasi helper dokumentasi Langchain Node.js yang sangat dasar menggunakan LLM (model bahasa besar). Kami akan dapat mengajukan beberapa pertanyaan dan mendapatkan jawaban. Anda akan melihat bagaimana kami membagi berbagai file kami menjadi potongan -potongan dan memasukkannya ke dalam database vektor menggunakan embeddings. Kami menggunakan database vektor Pinecone. Kemudian kami membuat rantai yang mengambil kueri (prompt), menanamkannya sebagai vektor, kemudian mengambil beberapa vektor yang paling dekat dengan vektor kueri secara semantik dan mengembalikannya. Potongan -potongan yang relevan ini dapat berisi jawabannya atau memiliki probabilitas tinggi untuk berisi jawabannya dan hanya potongan -potongan itu yang akan dikirim ke LLM. Dengan cara itu kami hanya melakukan beberapa panggilan API atau bahkan satu dan kami dapat menghemat banyak uang dan mendapatkan tanggapan lebih cepat dan tidak melakukan pekerjaan yang berlebihan. Jadi, kami melewati prompt plus potongan (konteks) yang relevan ke LLM untuk mendapatkan jawabannya.
Kami juga dapat melihat dokumen sumber yang kami gunakan untuk mengambil jawabannya. Ini bisa berguna jika kami ingin memungkinkan pengguna untuk melihat sumber yang digunakan untuk menghasilkan jawabannya.
Kami juga ingin obrolan kami memiliki kemampuan untuk mengingat dan merujuk hal -hal yang kami minta di masa lalu ketika berbicara dengan chatgpt.
Untuk memulai.
Clone the repository
git clone https://github.com/Ashot72/LangChain-Documentation-Helper
cd LangChain-Documentation-Helper
Add your keys to .env file
# installs dependencies
npm install
# to embed
npm run embed
# to run locally
npm start
Pergi ke halaman video Helper Dokumentasi Langchain
Pergi ke halaman Deskripsi Pembantu Dokumentasi Langchain