Avec PIP:
pip install dynamic_prompting
ou installer à partir de la source
git clone https://github.com/ElmiraGhorbani/dynamic_prompting
pip install -e .
Visitez le site Web de Meta Llama (https://llama.meta.com/llama-downloads) et inscrivez-vous pour télécharger le modèle / s.
Une fois enregistré, vous recevrez un e-mail avec une URL pour télécharger les modèles. Vous aurez besoin de cette URL lorsque vous exécutez le script Download.sh.
Une fois que vous avez reçu l'e-mail, accédez à votre référentiel LLAMA téléchargé et exécutez le script Télécharger.sh.
Une fois que vous avez téléchargé les modèles, placez-les dans ce dossier.
Sinon, vous pouvez utiliser de cette façon:
- Step 1: Go to your Hugging Face account “Settings” and then “Access Tokens” on the left column, and copy the token you need.
- Step 2: On your terminal, export your token starting with “HF_”. Use a distinct name (for example, HF_TOKEN) for each token you export.
You may add this line to your ~/.bashrc if you do not want to export it every time you start a session.
export HF_TOKEN="HF_XXXXXXXXXXXXX"
La classe Embeddings est conçue pour l'interfaçage avec des modèles d'intégration de texte. Il existe de nombreux fournisseurs de modèles d'incorporation (Openai, Cohere, étreinte Face, etc.). Actuellement, cette classe fournit une interface standard pour MXBAI-EMBED-LARGE-V1 , BGE-SMALL-EN-V1.5 et Nomic-Embed-Text-V1.5 .
Pour commencer, téléchargez les modèles et placez-les dans ce dossier.
git lfs install
git clone https://huggingface.co/nomic-ai/nomic-embed-text-v1.5
cd nomic-embed-text-v1.5
git lfs fetch
git clone https://huggingface.co/BAAI/bge-small-en-v1.5
cd bge-small-en-v1.5
git lfs fetch
git clone https://huggingface.co/mixedbread-ai/mxbai-embed-large-v1
cd mxbai-embed-large-v1
git lfs fetch
Vérifiez l'exemple.Ipynb