O Fast-LangDetect fornece detecção de linguagem ultra-rápida e altamente precisa baseada no FastText, uma biblioteca desenvolvida pelo Facebook. Este pacote é 80x mais rápido que os métodos tradicionais e oferece precisão de 95%.
Ele suporta versões Python 3.9 a 3.12.
Apoie o uso offline.
Este projeto se baseia no Zafercavdar/FastText-LangDetect com aprimoramentos na embalagem.
Para obter mais informações sobre o modelo FastText subjacente, consulte a documentação oficial: Identificação da linguagem FastText.
Observação
Esta biblioteca requer mais de 200 MB de memória para usar no modo de baixa memória.
Para instalar o Fast-LangDetect, você pode usar pip ou pdm :
pip install fast-langdetectpdm add fast-langdetect Para desempenho e precisão ideais na detecção de idiomas, use detect(text, low_memory=False) para carregar o modelo maior.
O modelo será baixado no diretório
/tmp/fasttext-langdetectapós o primeiro uso.
Observação
Esta função assume receber uma única linha de texto. Você deve remover os caracteres n antes de passar o texto. Se a amostra for muito longa ou muito curta, a precisão diminuirá (por exemplo, no caso de muito curto, os chineses serão previstos como japonês).
from fast_langdetect import detect , detect_multilingual
# Single language detection
print ( detect ( "Hello, world!" ))
# Output: {'lang': 'en', 'score': 0.12450417876243591}
# `use_strict_mode` determines whether the model loading process should enforce strict conditions before using fallback options.
# If `use_strict_mode` is set to True, we will load only the selected model, not the fallback model.
print ( detect ( "Hello, world!" , low_memory = False , use_strict_mode = True ))
# How to deal with multiline text
multiline_text = """
Hello, world!
This is a multiline text.
But we need remove ` n ` characters or it will raise an ValueError.
"""
multiline_text = multiline_text . replace ( " n " , "" ) # NOTE:ITS IMPORTANT TO REMOVE n CHARACTERS
print ( detect ( multiline_text ))
# Output: {'lang': 'en', 'score': 0.8509423136711121}
print ( detect ( "Привет, мир!" )[ "lang" ])
# Output: ru
# Multi-language detection
print ( detect_multilingual ( "Hello, world!你好世界!Привет, мир!" ))
# Output: [{'lang': 'ja', 'score': 0.32009604573249817}, {'lang': 'uk', 'score': 0.27781224250793457}, {'lang': 'zh', 'score': 0.17542070150375366}, {'lang': 'sr', 'score': 0.08751443773508072}, {'lang': 'bg', 'score': 0.05222449079155922}]
# Multi-language detection with low memory mode disabled
print ( detect_multilingual ( "Hello, world!你好世界!Привет, мир!" , low_memory = False ))
# Output: [{'lang': 'ru', 'score': 0.39008623361587524}, {'lang': 'zh', 'score': 0.18235979974269867}, {'lang': 'ja', 'score': 0.08473210036754608}, {'lang': 'sr', 'score': 0.057975586503744125}, {'lang': 'en', 'score': 0.05422825738787651}]detect_language from fast_langdetect import detect_language
# Single language detection
print ( detect_language ( "Hello, world!" ))
# Output: EN
print ( detect_language ( "Привет, мир!" ))
# Output: RU
print ( detect_language ( "你好,世界!" ))
# Output: ZHPara divisão de texto com base no idioma, consulte o repositório Split-Flit.
Para obter resultados detalhados de benchmark, consulte o zafercavdar/fasttext-langdetect#benchmark.
[1] A. Joulin, E. Grave, P. Bojanowski, T. Mikolov, Bolsa de truques para classificação de texto eficiente
@article { joulin2016bag ,
title = { Bag of Tricks for Efficient Text Classification } ,
author = { Joulin, Armand and Grave, Edouard and Bojanowski, Piotr and Mikolov, Tomas } ,
journal = { arXiv preprint arXiv:1607.01759 } ,
year = { 2016 }
}[2] A. Joulin, E. Grave, P. Bojanowski, M. Douze, H. Jégou, T. Mikolov, FastText.Zip: Compressioning Text Classification Models
@article { joulin2016fasttext ,
title = { FastText.zip: Compressing text classification models } ,
author = { Joulin, Armand and Grave, Edouard and Bojanowski, Piotr and Douze, Matthijs and J{'e}gou, H{'e}rve and Mikolov, Tomas } ,
journal = { arXiv preprint arXiv:1612.03651 } ,
year = { 2016 }
}