Développé un chatbot de chiffon à l'aide de Llamaindex
Backend ??:
Début ------------------------------------------------------------- Tout d'abord, configurez l'environnement:
poetry install
poetry shell
Par défaut, nous utilisons l'Openai LLM (bien que vous puissiez personnaliser, consultez App / Context.py). En conséquence, vous devez spécifier un openai_api_key dans un fichier .env dans ce répertoire.
Exemple .env Fichier:
OPENAI_API_KEY=<openai_api_key>
Deuxièmement, générez les intégres des documents dans le répertoire ./Data (si ce dossier existe - sinon, sautez cette étape):
python app/engine/generate.py
"Pour gérer l'intégration et pour plus d'informations sur l'index de recherche de vecteurs --------- Voir https://github.com/run-llama/mongodb-demo/tree/main?tab=readme-ov-file#create-a-vector-search-index
Troisièmement, exécutez le serveur de développement:
python main.py
Appelez ensuite l'API Endpoint / API / CHAT pour voir le résultat:
curl --location 'localhost:8000/api/chat'
--header 'Content-Type: application/json'
--data '{ "messages": [{ "role": "user", "content": "Hello" }] }'
You can start editing the API by modifying app/api/routers/chat.py. The endpoint auto-updates as you save the file.
Ouvrez http: // localhost: 8000 / docs avec votre navigateur pour voir l'interface utilisateur de Swagger de l'API.
L'API permet à toutes les origines de CORS pour simplifier le développement. Vous pouvez modifier ce comportement en définissant la variable environnementale pour produire:
ENVIRONMENT=prod uvicorn main:app
En savoir plus pour en savoir plus sur Llamaindex, jetez un œil aux ressources suivantes:
Documentation de Llamaindex - Renseignez-vous sur Llamaindex. Vous pouvez consulter le référentiel Llamaindex Github - vos commentaires et contributions sont les bienvenus!
L'extrémité avant ??:
Début ---------------------------- Tout d'abord, installez les dépendances:
npm install
Deuxièmement, exécutez le serveur de développement:
npm run dev
Open http://localhost:3000 with your browser to see the result.
Vous pouvez commencer à modifier la page en modifiant app / page.tsx. La page indique automatiquement la mise à jour lorsque vous modifiez le fichier.
Ce projet utilise Next / Font pour optimiser et charger automatiquement Inter, une police Google personnalisée.
En savoir plus pour en savoir plus sur Llamaindex, jetez un œil aux ressources suivantes:
Documentation de Llamaindex - Renseignez-vous sur Llamaindex (fonctionnalités Python). Documentation LlamainDexts - Renseignez-vous sur Llamaindex (fonctionnalités de typeScript). Vous pouvez consulter le référentiel GitHub LlamainDexts - Vos commentaires et contributions sont les bienvenus!