toxicity classification module
v0.1.10
ロシア語と英語で毒性メッセージを予測するためのモジュール
from toxicityclassifier import *
classifier = ToxicityClassificatorV1 ()
print ( classifier . predict ( text )) # (0 or 1, probability)
print ( classifier . get_probability ( text )) # probability
print ( classifier . classify ( text )) # 0 or 1 分類の重み(確率> = weight => 1 else 0の場合0)
classifier . weight = 0.5
言語検出の重量(英語またはロシア語)
ロシア語の割合> = language_weightの場合、ロシアのモデルが使用されます。
classifier . language_weight = 0.5