toxicity classification module
v0.1.10
用於預測俄羅斯和英語的毒性消息的模塊
from toxicityclassifier import *
classifier = ToxicityClassificatorV1 ()
print ( classifier . predict ( text )) # (0 or 1, probability)
print ( classifier . get_probability ( text )) # probability
print ( classifier . classify ( text )) # 0 or 1 分類的重量(如果概率> = = strigh => 1 else 0 0)
classifier . weight = 0.5
語言檢測的重量(英語或俄語)
如果俄羅斯語言的百分比> = language_weight,則使用俄羅斯模型,否則英語
classifier . language_weight = 0.5