Großsprachenmodelle sind so konzipiert, dass sie menschlichsprachige Aufgaben effektiv wie Übersetzung, Zusammenfassung, Argumentation, Klassifizierung, Erfassungskontextinformationen, Erfassungssemantik und Syntax von Sprachen erfassen, aber vor kurzem nach der Entstehung von GPT-3,5 und Open-Source-Models wie Llama-2-2-2-Anweisungen von GPT-3,5 und Open-Source-Modellen wie Llama-2, Zephyer. Code, geben Sie einige Informationen zu bestimmten Domain-Anwendungsfällen und vielem mehr an. Natürlich können viele von ihnen Antworten auf viele Fragen geben, aber sobald wir sie über Fragen stellen, wissen LLMs nichts darüber oder sie können sie nicht auswendig machen, sie halluzinieren und geben falsche Antworten.
Eine Lösung für dieses Problem, um LLMs effektiv zu verwenden und sie aktuelle Informationen bereitzustellen, besteht darin, Vektordatenbanken und Techniken zur Erstellung von Systemen zur Erstellung von Systemen zur Erstellung von Systemen zu erstellen, die:
Diese Technik verringert die Halluzination und liefert LLMs mit Kontext (Wissen), die sie effektiv beantworten müssen.
mkdir data/db
mkdir data/newsmkdir sts
cd sts
git lfs install
git clone https://huggingface.co/sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2poetry installmake qdrantEs ist der einfachste Schritt, den diesen Befehl einfach ausführen zu können
make run date= ' 2023-11-09 '