Une collection de scripts pour rationaliser la traduction des fichiers Markdown à l'aide de magasins vectoriels et d'apprentissage en profondeur.
Cette boîte à outils fournit un ensemble de scripts Python conçus pour simplifier le processus de traduction pour les fichiers Markdown. Les scripts exploitent les modèles d'intégration pour améliorer la précision de la récupération de documents et améliorer le flux de travail de traduction global.
Le script search_word.py initialise un moteur de recherche pour récupérer des documents pertinents basés sur des intégres. Il est conçu pour fonctionner avec des fichiers Markdown en plusieurs langues. L'application CLI est basée sur Typer.
Installation:
pip install fatushfatush rungit clone https://github.com/alperiox/fatush.gitcd fatushpip install -r requirements.txt ou poetry installConfiguration:
python fatush/search_word.py runconfig.yaml n'est pas trouvé, le script rapportera les documents à partir du repo FastAPI et créera le fichier de configuration nécessaire.Documents de traitement:
Modèle d'intégration de chargement:
Magasin vectoriel:
Initialisation du moteur de recherche:
Todos:
search_word.pysource_lang : code de langue source (par exemple, «en»).translation_lang : code de langue de traduction (par exemple, 'tr').docs_path : chemin vers les documents (par défaut est le répertoire de travail actuel).vectorstore_path : Chemin vers le magasin Vector (par défaut est le répertoire de travail actuel). Étant donné que le projet est construit sur mon expérience de la traduire la documentation Fastapi, une abstraction plus agréable est un must pour un ensemble d'outils plus généralement utilisable. En effet, il existe plusieurs variables codées durs en ce moment, comme récupérer la documentation du référentiel Fastapi.