In diesem Projekt habe ich auf dem LLAMA3-70B-8192 LLM einen Lappen gebaut, auf das mit GROQ API zugegriffen wurde. Die für LAG verwendeten Dokumente wurden durch Webcrapping des köstlichen Blogs abgerufen, der Artikel über persönliche Finanzen enthält. In den von mir abgerufenen Artikeln ging es hauptsächlich darum, Immobilien in Singapur und Versicherungspolicen zu kaufen. Ziel ist es, ein Sprachmodell zu entwickeln, das kontextbezogener und in der Lage ist, Fragen im Zusammenhang mit persönlichen Finanzmitteln im Kontext von Singapur zu beantworten.
Ich habe Scrapy zum Abkratzen der Artikel, zum All-Minilm-L6-V2-Modell für die Umwandlung von Textbrocken in Einbettungen und Faiss-Vektorspeicher für Textspeicher und -abruf verwendet. Schließlich verwendete ich Langchain, um alle verschiedenen Komponenten von Abrufen von Textbrocken bis hin zur Strukturierung und Verkettung zu verkürzen, um eine gewünschte Ausgabe zu erzielen.
Die endgültige Ausgabe wird erzeugt, indem zwei Eingabeaufforderungen angeordnet sind, wobei der erste der vorgesehene Kontext zusammenfasst (Top 3 ähnliche Textbrocken wie der gestellte Frage -Benutzer) und die zweite, die die tatsächliche Antwort generiert. Dies soll sicherstellen, dass die Eingabeaufforderung, die zum Generieren von Antworten verwendet wird, nicht zu lang wird (wenn sie Textbrocken in voller Länge als Kontext enthält), so dass mehr Kontext für die LLM zur Verfügung gestellt werden kann.
Die Verkettung von Eingabeaufforderungen funktioniert wie erwartet, wobei die Textbrocken erfolgreich zur zweiten Eingabeaufforderung hinzugefügt werden. Die Leistung der Pipeline hängt von der Qualität der bereitgestellten Kontextdokumente ab.
Durch dieses Projekt lernte ich, wie man einen Lappen mit Langchain implementiert, wie man ein LLM mit schnellen Vorlagen anschließt und mit der Langchain -Expressionssprache (LCEL) und der Verwendung von Vektorspeichern und Einbettungsfunktionen zusammen mit Langchain eine Schnittstelle übernimmt. Ich glaube, diese grundlegenden Konzepte der Entwicklung von LLM -Anwendungen werden es mir ermöglichen, in Zukunft komplexere LLM -Anwendungen aufzubauen.