Dieses Repository bietet einen Framework für die prompt-basierte Klassifizierung mithilfe von vorgeborenen Sprachmodellen mit dem Schwerpunkt auf Aufgaben der persischen Textklassifizierung. Es enthält Skripte und Notizbücher zum Generieren von Eingabeaufforderungen, Eingabeaufforderungen für die Klassifizierung, die Bewertung von Ergebnissen und die Analyse von Modellleistungskennzahlen wie F1-Score, Präzision und Rückruf. Das Repository unterstützt auch das K-Shot-Lernen, um die Anpassungsfähigkeit der Modell zu verbessern, indem relevante Beispiele einbezogen werden.
Codes : Enthält den Kerncode und Notizbücher für Modelltraining, Eingabeaufforderung und Bewertung.
AYA-Colab.ipynb : Hauptnotizbuch für Trainings- und Feinabstimmungsaufforderungen mit AYA-Modellen auf Colab.Classification_report.ipynb : Erzeugt Klassifizierungsmetriken, einschließlich F1 -Score, Präzision und Rückruf für verschiedene Eingabeaufnahmen.Creating_dataset.ipynb : Datenvorbereitung und Datensatzerstellung für prompt-basierte Lernen.f1-calculation.py : Python-Skript zur Berechnung und Visualisierung von F1-Scores.news-aya-symbol-tuning.ipynb : Notizbuch für symbolbasierte Tuning mit AYA-Modellen für die Textklassifizierung.news-aya-system-user-prompt.ipynb : Skript zum Generieren von System- und Benutzeranforderungen mithilfe eines vorgebliebenen Sprachmodells.Symbol_tuning_aya.ipynb : Symbol -Tuning -Notizbuch zur Optimierung der sofortigen Effektivität.Datensätze : Enthält Datensätze für Schulungen und Bewertung.
Eingabeaufforderungen : Enthält Eingabeaufforderung Vorlagen, die für verschiedene Klassifizierungsaufgaben verwendet werden.
Folien : Dokumentations- und Präsentationsdateien, die das Lernen in Kontext, ein promptes Design, K-Shot-Lernen und Symbolabstimmung erläutern.
In-Context Learning.pptx & In-Context Learning.pdf : Details zur Verwendung von In-Context-Lernen für die Modellabstimmung.System-User Prompt Design.pptx System-User Prompt Design.pdf .Symbol Tuning.pptx & Symbol Tuning.pdf : Anweisungen zur Verwendung von Symbol -Tuning zur Verbesserung der sofortigen Leistung. Klonen Sie das Repository:
git clone https://github.com/ShayanSalehi81/BachelorProject
cd BachelorProjectInstallieren Sie die erforderlichen Pakete:
pip install -r requirements.txtAuthentifizieren Sie sich mit umarmtem Gesicht (falls erforderlich) und installieren Sie zusätzliche Bibliotheken:
huggingface-cli login --token YOUR_HUGGINGFACE_TOKEN Führen Sie eine der Notizbücher oder Python -Skripte im Verzeichnis Codes aus, um Aufgaben wie die Erstellung von Datensätzen, ein schnelles Tuning oder die Bewertung auszuführen.
Generator lädt ein vorgebildetes Sprachmodell, fordert Formate auf und generiert Vorhersagen. Das Skript unterstützt die 4-Bit-Quantisierung für die effiziente Speicherverwendung und nutzt benutzerbereitete Eingabeaufforderungen zur Klassifizierung persischer Nachrichten als "wichtig" oder "nicht wichtig".news-aya-symbol-tuning.ipynb und Symbol_tuning_aya.ipynb sind so konzipiert, dass sie Eingabeaufforderungsymbole feinstimmen können, die die Modellinterpretierbarkeit und die Konsistenz der Antwort verbessern können. Die Symbole -Tuning führt zu geringfügigen Anpassungen der Eingabeaufforderungen und verbessert das Verständnis des Modells von nuancierten Abfragen. Creating_dataset.ipynb um Ihren Datensatz vorzubereiten und formatieren.news-aya-system-user-prompt.ipynb um System- und Benutzeranforderungen zu definieren und die Klassifizierung im Datensatz auszuführen.Classification_report.ipynb , um Metriken wie Genauigkeit und F1-Score und f1-calculation.py zu berechnen, um die Leistung zu visualisieren.news-aya-symbol-tuning.ipynb aus, um das schnelle Design mit der Symbol-Abstimmung zu verfeinern. Dieses Projekt ist unter der MIT -Lizenz lizenziert.
Beiträge sind willkommen! Fühlen Sie sich frei, Probleme, Feature -Anfragen oder Anfragen zur Verbesserung dieses Projekts einzureichen.