يحتوي هذا المستودع على رمز يوضح استخدام مكتبة محولات الوجه المعانقة لتصنيف النص صفريًا وتوليد النصوص. ويشمل أمثلة مع BART للتصنيف و GPT-2 لتوليد النص.
فئة ZeroShotInference : فئة للتعامل مع تصنيف النص صفريًا وتوليد النص. main.py : مثال استخدام فئة ZeroShotInference لتصنيف النص وتوليد النص.
لتشغيل هذا الرمز ، تحتاج إلى تثبيت مكتبة Hugging Face Transformers وتبعياتها. يمكنك تثبيتها مع:
pip install transformers torchيستخدم هذا المثال نموذج Facebook BART الكبير (BART-LARGE-MNLI) لتصنيف نص يعتمد على ملصقات مرشحة معينة.
from transformers import pipeline
class ZeroShotInference :
def __init__ ( self , task , pre_trained_model ):
self . model = pre_trained_model
self . task = task
self . pipe = pipeline ( task = self . task , model = self . model )
def classify_text ( self , text , candidate_labels ):
result = self . pipe ( text , candidate_labels )
return resultمثال الاستخدام:
text = "I love to play video games"
candidate_labels = [ 'hobby' , 'habit' , 'adventure' , 'boredom' , 'business' ]
task = "zero-shot-classification"
model = "facebook/bart-large-mnli"
zero_short_inference = ZeroShotInference ( task , model )
result = zero_short_inference . classify_text ( text , candidate_labels )
print ( result ) # Output: {'sequence': 'I love to play video games', 'labels': ['hobby', 'habit', 'adventure', 'business', 'boredom'], 'scores': [0.8799885511398315, 0.09845343977212906, 0.016700521111488342, 0.0031407771166414022, 0.0017165272729471326]}يستخدم هذا المثال GPT-2 لإنشاء نص بناءً على موجه معين.
def generate_text ( self , prompt , max_length = 100 , temperature = 0.7 ):
output = self . pipe ( prompt , max_length = max_length , do_sample = True , temperature = temperature , truncation = True )
return output [ 0 ][ 'generated_text' ]مثال الاستخدام:
prompt = "I was doing coding last night"
model_2 = "gpt2"
task_2 = "text-generation"
zero_shot_infernece_2 = ZeroShotInference ( task_2 , model_2 )
result_2 = zero_shot_infernece_2 . generate_text ( prompt )
print ( result_2 ) يستخدم النموذج تقنيات القياس الكمي للاستدلال الفعال ، وتقليل استخدام الذاكرة وتسريع أوقات الاستجابة باستخدام BitsAndBytesConfig
بالنسبة إلى HF_Token كما ذكر ، فقد أنشأت الرمز المميز من Luggingface وأضفت إلى سر Google Colab لاستخدامه
تهدف هذه المهمة إلى ضبط النموذج الخاطئ لإنشاء نص تعليمي باستخدام متغير 7B. يتضمن تدريب النموذج على مجموعة بيانات معينة ثم استخدامه لإنشاء نص تعليمي استنادًا إلى مطالبات معينة.
يعزز مشروع Mistral الذي يربط 7B النموذج Mistral ، وهو نموذج لغة على نطاق واسع ، لإنشاء نص تعليمي. من خلال ضبط النموذج على مجموعة بيانات تحتوي على نص تعليمي ، فإن الهدف هو إنشاء نموذج متخصص قادر على توليد تعليمات متماسكة وغنية بالمعلومات.
المساهمات في المشروع موضع ترحيب. لا تتردد في توتر المستودع ، وإجراء تغييراتك ، وتقديم طلب سحب. يمكنك أيضًا فتح المشكلات لاقتراح تحسينات أو الإبلاغ عن الأخطاء.