Fast-LangDetect proporciona una detección de lenguaje ultra rápida y altamente precisa basada en FastText, una biblioteca desarrollada por Facebook. Este paquete es 80 veces más rápido que los métodos tradicionales y ofrece una precisión del 95%.
Admite las versiones de Python 3.9 a 3.12.
Apoya el uso fuera de línea.
Este proyecto se basa en zafercavdar/fastText-langDetect con mejoras en el embalaje.
Para obtener más información sobre el modelo FastText subyacente, consulte la documentación oficial: Identificación del lenguaje FastText.
Nota
Esta biblioteca requiere más de 200 MB de memoria para usar en modo de memoria baja.
Para instalar Fast-LangDetect, puede usar pip o pdm :
pip install fast-langdetectpdm add fast-langdetect Para un rendimiento y precisión óptimos en la detección del lenguaje, use detect(text, low_memory=False) para cargar el modelo más grande.
El modelo se descargará en el directorio
/tmp/fasttext-langdetectal primer uso.
Nota
Esta función supone que recibirá una sola línea de texto. Debe eliminar n caracteres antes de pasar el texto. Si la muestra es demasiado larga o demasiado corta, la precisión disminuirá (por ejemplo, en el caso de demasiado corto, se predijo chino como japonés).
from fast_langdetect import detect , detect_multilingual
# Single language detection
print ( detect ( "Hello, world!" ))
# Output: {'lang': 'en', 'score': 0.12450417876243591}
# `use_strict_mode` determines whether the model loading process should enforce strict conditions before using fallback options.
# If `use_strict_mode` is set to True, we will load only the selected model, not the fallback model.
print ( detect ( "Hello, world!" , low_memory = False , use_strict_mode = True ))
# How to deal with multiline text
multiline_text = """
Hello, world!
This is a multiline text.
But we need remove ` n ` characters or it will raise an ValueError.
"""
multiline_text = multiline_text . replace ( " n " , "" ) # NOTE:ITS IMPORTANT TO REMOVE n CHARACTERS
print ( detect ( multiline_text ))
# Output: {'lang': 'en', 'score': 0.8509423136711121}
print ( detect ( "Привет, мир!" )[ "lang" ])
# Output: ru
# Multi-language detection
print ( detect_multilingual ( "Hello, world!你好世界!Привет, мир!" ))
# Output: [{'lang': 'ja', 'score': 0.32009604573249817}, {'lang': 'uk', 'score': 0.27781224250793457}, {'lang': 'zh', 'score': 0.17542070150375366}, {'lang': 'sr', 'score': 0.08751443773508072}, {'lang': 'bg', 'score': 0.05222449079155922}]
# Multi-language detection with low memory mode disabled
print ( detect_multilingual ( "Hello, world!你好世界!Привет, мир!" , low_memory = False ))
# Output: [{'lang': 'ru', 'score': 0.39008623361587524}, {'lang': 'zh', 'score': 0.18235979974269867}, {'lang': 'ja', 'score': 0.08473210036754608}, {'lang': 'sr', 'score': 0.057975586503744125}, {'lang': 'en', 'score': 0.05422825738787651}]detect_language from fast_langdetect import detect_language
# Single language detection
print ( detect_language ( "Hello, world!" ))
# Output: EN
print ( detect_language ( "Привет, мир!" ))
# Output: RU
print ( detect_language ( "你好,世界!" ))
# Output: ZHPara la división del texto en función del lenguaje, consulte el repositorio de Lang Split.
Para obtener resultados de referencia detallados, consulte ZafertAvdar/FastText-LangDetect#Benchmark.
[1] A. Joulin, E. Grave, P. Bojanowski, T. Mikolov, Bolsa de trucos para una clasificación de texto eficiente
@article { joulin2016bag ,
title = { Bag of Tricks for Efficient Text Classification } ,
author = { Joulin, Armand and Grave, Edouard and Bojanowski, Piotr and Mikolov, Tomas } ,
journal = { arXiv preprint arXiv:1607.01759 } ,
year = { 2016 }
}[2] A. Joulin, E. Grave, P. Bojanowski, M. Douze, H. Jégou, T. Mikolov, FastText.zip: Modelos de clasificación de texto de comprimir
@article { joulin2016fasttext ,
title = { FastText.zip: Compressing text classification models } ,
author = { Joulin, Armand and Grave, Edouard and Bojanowski, Piotr and Douze, Matthijs and J{'e}gou, H{'e}rve and Mikolov, Tomas } ,
journal = { arXiv preprint arXiv:1612.03651 } ,
year = { 2016 }
}