Fast-LangDetect обеспечивает сверхбысткое и высокое точное обнаружение языка на основе FastText, библиотеки, разработанной Facebook. Этот пакет на 80 раз быстрее, чем традиционные методы, и предлагает точность 95%.
Он поддерживает версии Python от 3.9 до 3.12.
Поддержка в автономном использовании.
Этот проект основан на Zafercavdar/Fasttext-Langdetect с улучшениями в упаковке.
Для получения дополнительной информации о базовой модели FastText см. В официальной документации: Идентификация языка быстрого текста.
Примечание
Эта библиотека требует более 200 МБ памяти для использования в режиме низкой памяти.
Для установки быстро-лангдекта вы можете использовать либо pip , либо pdm :
pip install fast-langdetectpdm add fast-langdetect Для оптимальной производительности и точности в обнаружении языка используйте detect(text, low_memory=False) для загрузки более крупной модели.
Модель будет загружена в каталог
/tmp/fasttext-langdetectпри первом использовании.
Примечание
Эта функция предполагает, что будет предоставлена одна строка текста. Вы должны удалить символы n перед передачей текста. Если выборка слишком длинная или слишком короткая, точность уменьшится (например, в случае слишком коротких, китайцы будут предсказаны как японские).
from fast_langdetect import detect , detect_multilingual
# Single language detection
print ( detect ( "Hello, world!" ))
# Output: {'lang': 'en', 'score': 0.12450417876243591}
# `use_strict_mode` determines whether the model loading process should enforce strict conditions before using fallback options.
# If `use_strict_mode` is set to True, we will load only the selected model, not the fallback model.
print ( detect ( "Hello, world!" , low_memory = False , use_strict_mode = True ))
# How to deal with multiline text
multiline_text = """
Hello, world!
This is a multiline text.
But we need remove ` n ` characters or it will raise an ValueError.
"""
multiline_text = multiline_text . replace ( " n " , "" ) # NOTE:ITS IMPORTANT TO REMOVE n CHARACTERS
print ( detect ( multiline_text ))
# Output: {'lang': 'en', 'score': 0.8509423136711121}
print ( detect ( "Привет, мир!" )[ "lang" ])
# Output: ru
# Multi-language detection
print ( detect_multilingual ( "Hello, world!你好世界!Привет, мир!" ))
# Output: [{'lang': 'ja', 'score': 0.32009604573249817}, {'lang': 'uk', 'score': 0.27781224250793457}, {'lang': 'zh', 'score': 0.17542070150375366}, {'lang': 'sr', 'score': 0.08751443773508072}, {'lang': 'bg', 'score': 0.05222449079155922}]
# Multi-language detection with low memory mode disabled
print ( detect_multilingual ( "Hello, world!你好世界!Привет, мир!" , low_memory = False ))
# Output: [{'lang': 'ru', 'score': 0.39008623361587524}, {'lang': 'zh', 'score': 0.18235979974269867}, {'lang': 'ja', 'score': 0.08473210036754608}, {'lang': 'sr', 'score': 0.057975586503744125}, {'lang': 'en', 'score': 0.05422825738787651}]detect_language from fast_langdetect import detect_language
# Single language detection
print ( detect_language ( "Hello, world!" ))
# Output: EN
print ( detect_language ( "Привет, мир!" ))
# Output: RU
print ( detect_language ( "你好,世界!" ))
# Output: ZHДля расщепления текста на основе языка, пожалуйста, обратитесь к репозиторию сплит-лангей.
Для получения подробных контрольных результатов см. Zafercavdar/Fasttext-Langdetect#.
[1] А. Джулин, Э. Грейв, П. Бояновский, Т. Миколов, мешок трюков для эффективной классификации текста
@article { joulin2016bag ,
title = { Bag of Tricks for Efficient Text Classification } ,
author = { Joulin, Armand and Grave, Edouard and Bojanowski, Piotr and Mikolov, Tomas } ,
journal = { arXiv preprint arXiv:1607.01759 } ,
year = { 2016 }
}[2] A. Joulin, E. Grave, P. Bojanowski, M. Douze, H. Jégou, T. Mikolov, Fasttext.zip: сжатие моделей классификации текста
@article { joulin2016fasttext ,
title = { FastText.zip: Compressing text classification models } ,
author = { Joulin, Armand and Grave, Edouard and Bojanowski, Piotr and Douze, Matthijs and J{'e}gou, H{'e}rve and Mikolov, Tomas } ,
journal = { arXiv preprint arXiv:1612.03651 } ,
year = { 2016 }
}