PoliBERTweet
1.0.0
Transformator-basierte Sprachmodelle, die auf eine große Menge an politischbezogenen Twitter-Daten (83 m Tweets) vorgebracht wurden. Dieses Repo ist die offizielle Ressource des folgenden Papiers.
Die Datensätze für die in unserem Artikel vorgestellten Bewertungsaufgaben sind nachstehend verfügbar.
Alle Modelle werden auf mein Umarmungsfeld hochgeladen? Sie können also Modell mit nur drei Codezeilen laden !!!
Wir haben in pytorch v1.10.2 und transformers v4.18.0 getestet.
from transformers import AutoModel , AutoTokenizer , pipeline
import torch
# Choose GPU if available
device = torch . device ( "cuda" if torch . cuda . is_available () else "cpu" )
# Select mode path here
pretrained_LM_path = "kornosk/polibertweet-mlm"
# Load model
tokenizer = AutoTokenizer . from_pretrained ( pretrained_LM_path )
model = AutoModel . from_pretrained ( pretrained_LM_path ) # Fill mask
example = "Trump is the <mask> of USA"
fill_mask = pipeline ( 'fill-mask' , model = pretrained_LM_path , tokenizer = tokenizer )
outputs = fill_mask ( example )
print ( outputs ) # See embeddings
inputs = tokenizer ( example , return_tensors = "pt" )
outputs = model ( ** inputs )
print ( outputs )
# OR you can use this model to train on your downstream task!
# please consider citing our paper if you feel this is useful :)Siehe Details im Suggingface -Dokument.
Wenn Sie der Meinung sind, dass unser Papier und unsere Ressourcen nützlich sind, sollten Sie unsere Arbeit zitieren!
@inproceedings { kawintiranon2022polibertweet ,
title = { {P}oli{BERT}weet: A Pre-trained Language Model for Analyzing Political Content on {T}witter } ,
author = { Kawintiranon, Kornraphop and Singh, Lisa } ,
booktitle = { Proceedings of the Language Resources and Evaluation Conference (LREC) } ,
year = { 2022 } ,
pages = { 7360--7367 } ,
publisher = { European Language Resources Association } ,
url = { https://aclanthology.org/2022.lrec-1.801 }
}Erstellen Sie hier ein Problem, wenn Sie Probleme beim Laden von Modellen oder Datensätzen haben.