Fast-LangDeTect bietet eine ultraschnelle und sehr genaue Spracherkennung basierend auf FastText, einer von Facebook entwickelten Bibliothek. Dieses Paket ist 80x schneller als herkömmliche Methoden und bietet 95% Genauigkeit.
Es unterstützt Python -Versionen 3.9 bis 3.12.
Unterstützung der Offline -Nutzung.
Dieses Projekt baut auf Zafercavdar/fastText-LangDetekt mit Verbesserungen der Verpackung auf.
Weitere Informationen zum zugrunde liegenden FastText -Modell finden Sie in der offiziellen Dokumentation: FastText -Sprachidentifikation.
Notiz
Diese Bibliothek erfordert über 200 MB Speicher im niedrigen Speichermodus.
Zum Installieren von Fast-Langdetekten können Sie entweder pip oder pdm verwenden:
pip install fast-langdetectpdm add fast-langdetect Verwenden Sie für optimale Leistung und Genauigkeit bei der Spracherkennung detect(text, low_memory=False) , um das größere Modell zu laden.
Das Modell wird beim ersten Gebrauch in das Verzeichnis
/tmp/fasttext-langdetectheruntergeladen.
Notiz
Diese Funktion wird davon ausgegangen, dass sie eine einzelne Textzeile erhalten. Sie sollten n Zeichen entfernen, bevor Sie den Text übergeben. Wenn die Stichprobe zu lang oder zu kurz ist, nimmt die Genauigkeit ab (zum Beispiel wird Chinesen beispielsweise als Japanisch vorhergesagt).
from fast_langdetect import detect , detect_multilingual
# Single language detection
print ( detect ( "Hello, world!" ))
# Output: {'lang': 'en', 'score': 0.12450417876243591}
# `use_strict_mode` determines whether the model loading process should enforce strict conditions before using fallback options.
# If `use_strict_mode` is set to True, we will load only the selected model, not the fallback model.
print ( detect ( "Hello, world!" , low_memory = False , use_strict_mode = True ))
# How to deal with multiline text
multiline_text = """
Hello, world!
This is a multiline text.
But we need remove ` n ` characters or it will raise an ValueError.
"""
multiline_text = multiline_text . replace ( " n " , "" ) # NOTE:ITS IMPORTANT TO REMOVE n CHARACTERS
print ( detect ( multiline_text ))
# Output: {'lang': 'en', 'score': 0.8509423136711121}
print ( detect ( "Привет, мир!" )[ "lang" ])
# Output: ru
# Multi-language detection
print ( detect_multilingual ( "Hello, world!你好世界!Привет, мир!" ))
# Output: [{'lang': 'ja', 'score': 0.32009604573249817}, {'lang': 'uk', 'score': 0.27781224250793457}, {'lang': 'zh', 'score': 0.17542070150375366}, {'lang': 'sr', 'score': 0.08751443773508072}, {'lang': 'bg', 'score': 0.05222449079155922}]
# Multi-language detection with low memory mode disabled
print ( detect_multilingual ( "Hello, world!你好世界!Привет, мир!" , low_memory = False ))
# Output: [{'lang': 'ru', 'score': 0.39008623361587524}, {'lang': 'zh', 'score': 0.18235979974269867}, {'lang': 'ja', 'score': 0.08473210036754608}, {'lang': 'sr', 'score': 0.057975586503744125}, {'lang': 'en', 'score': 0.05422825738787651}]detect_language from fast_langdetect import detect_language
# Single language detection
print ( detect_language ( "Hello, world!" ))
# Output: EN
print ( detect_language ( "Привет, мир!" ))
# Output: RU
print ( detect_language ( "你好,世界!" ))
# Output: ZHFür die Textaufteilung basierend auf der Sprache finden Sie das Split-Lang-Repository.
Für detaillierte Benchmarkergebnisse finden Sie unter Zafercavdar/FastText-LangDectct#Benchmark.
[1] A. Joulin, E. Grave, P. Bojanowski, T. Mikolov, Trickbeutel für eine effiziente Textklassifizierung
@article { joulin2016bag ,
title = { Bag of Tricks for Efficient Text Classification } ,
author = { Joulin, Armand and Grave, Edouard and Bojanowski, Piotr and Mikolov, Tomas } ,
journal = { arXiv preprint arXiv:1607.01759 } ,
year = { 2016 }
}[2] A. Joulin, E. Grave, P. Bojanowski, M. Douze, H. Jégou, T. Mikolov, FastText.zip: Komprimierende Textklassifizierungsmodelle
@article { joulin2016fasttext ,
title = { FastText.zip: Compressing text classification models } ,
author = { Joulin, Armand and Grave, Edouard and Bojanowski, Piotr and Douze, Matthijs and J{'e}gou, H{'e}rve and Mikolov, Tomas } ,
journal = { arXiv preprint arXiv:1612.03651 } ,
year = { 2016 }
}