toxicity classification module
v0.1.10
러시아어와 영어로 독성 메시지를 예측하기위한 모듈
from toxicityclassifier import *
classifier = ToxicityClassificatorV1 ()
print ( classifier . predict ( text )) # (0 or 1, probability)
print ( classifier . get_probability ( text )) # probability
print ( classifier . classify ( text )) # 0 or 1 분류 중량 (확률> = 무게 => 1 else 0)
classifier . weight = 0.5
언어 탐지 체중 (영어 또는 러시아어)
러시아어의 백분율> = ancegry_weight의 백분율이 있으면 러시아 모델이 사용됩니다. 그렇지 않으면 영어 모델
classifier . language_weight = 0.5