Model bahasa besar dirancang untuk melakukan tugas-tugas berbahasa manusia secara efektif seperti terjemahan, ringkasan, penalaran, klasifikasi, menangkap informasi kontekstual, menangkap semantik dan sintaksis bahasa, tetapi baru-baru ini setelah kemunculan GPT-3.5, dan model-model yang menanyakan solvan seperti llama-2, zephyer, dll, kami mulai menggunakan llms-sumber seperti debug seperti kuantum yang menanyakan kuantum, dll. kode, berikan beberapa informasi tentang kasus penggunaan domain tertentu, dan lebih banyak .. Tentu saja banyak dari mereka dapat memberikan jawaban atas banyak pertanyaan, tetapi begitu kami mulai bertanya kepada mereka tentang pertanyaan, tidak akan tahu apa-apa atau mereka tidak dapat menghafal mereka, mereka berhalusinasi, dan memberikan jawaban yang salah.
Solusi untuk masalah ini untuk menggunakan LLM secara efektif, dan memberikan informasi terkini adalah dengan menggunakan database vektor & teknik rekayasa cepat untuk membangun sistem generasi pengambilan-pengambilan, yang dapat: yang dapat:
Teknik ini mengurangi halusinasi, dan memberi LLM konteks (pengetahuan) mereka perlu menjawab pertanyaan secara efektif.
mkdir data/db
mkdir data/newsmkdir sts
cd sts
git lfs install
git clone https://huggingface.co/sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2poetry installmake qdrantitu adalah langkah paling sederhana saja jalankan perintah ini
make run date= ' 2023-11-09 '