Foundation-Model-Large-Sprache-Model-FM-Llm-
Dieses Repository wurde unter der Aktion von wichtigen Aufgaben begangen, auf die moderne generative KI -Konzepte aufgestellt werden. Insbesondere konzentrierten wir uns auf drei Codierungsaktionen großer Sprachmodelle, die wie folgt angegeben werden:
- Wir untersuchen das Beispiel für Dialog-Zusammenfassung durch generative KI auf der AWS mit dem ML-M5-2xLarge vom Typ Instace-Typ. Dies wurde erfolgreich ausgeführt, indem die Zusammenfassung eines Dialogs mit dem vorgeborenen großen Sprachmodell (LLM) FLAN-T5 vom Umarmungsgesicht enthält. Darüber hinaus haben wir prompt Engineering eingesetzt, das ein wichtiges Konzept für Foundation -Modelle für die Textgenerierung ist. Wir haben Null-Shot-Inferenz, One-Shot-Inferenz und wenige Schlussfolgerungen verwendet, um das Experiment der Dialogübersicht zu schließen.
- Im zweiten Experiment untersuchen wir ein wichtiges Konzept der Feinabstimmung eines generativen KI -Modells und haben erneut am Dialog -Zusammenfassungsexperiment gearbeitet. Es ist erneut wichtig zu beachten, dass dieses spezielle Experiment mit dem ML-M5-2xLarge vom Typ Instace-Typ am AWS durchgeführt wurde. Nachdem wir uns an den Datensatz unseres Interesses erinnert haben, das in diesem Fall das Dialogsum-Umarmungs-Gesichtsdatensatz ist, laden wir das vorgebrachte Flan-T5-Modell und tokenisieren es dann. Nach dem Testen des Modells mit Schussinferenzen haben wir das Modell fein abgestimmt und dann die Gültigkeit des geschulten LLM durch die Rogue-Metrik bewertet. Nachdem wir eine Feinabstimmung durchgeführt haben, haben wir den Parameter effiziente Feinabstimmung (PEFT) ausgeführt, was ein generischer Begriff ist, der die Anpassung mit niedriger Rang (LORA) und das Experiment IC enthält, indem die Rogue-Metrik erneut berechnet wird, um die Gültigkeit von PEFT am Modell zu überprüfen.
- Zuletzt untersuchen wir, wie man ein Flan-T5-Modell fein einstellt, um weniger giftige Inhalte mit Meta Ai's Hate Speech Reward-Modell zu erzeugen. Nachdem wir traditionelle Commits ausgeführt haben, führen wir die Feinabstimmung durch, um die Zusammenfassung zu entgiften, indem wir die Richtlinie zur Verstärkung des Lernens gegen das Belohnungsmodell durch die Verwendung der proximalen Richtlinienoptimierung (PPO) optimieren. Bitte vergessen Sie nicht, dass wir das alles auf der AWS mit dem ML-M5-2xLarge vom Typ Instace-Typ durchgeführt haben.
All diese Codierung wurde während des Kurs zur Verfügung gestellt, das ich auf https://www.courserera.org/learn/generative-aiwith-lms bei Coursera übernahm. Das Zertifikat meiner aktiven Teilnahme ist bereits in diesem Repository hochgeladen.