lauzcom assistant est une solution interactive et conviviale conçue pour fournir un accès transparent aux données critiques de Swisscom. En intégrant de puissants modèles GPT , les clients peuvent facilement poser des questions sur les données publiques de Swisscom et recevoir rapidement des réponses précises.
Dites adieu aux recherches manuelles fastidieuses et laissez lauzcom assistant révolutionner vos interactions clients.
Le projet lauzcom assistant est créé par :
Vidéo de démonstration

Note
Assurez-vous que Docker est installé
Sous macOS ou Linux, exécutez :
./setup.shIl installe toutes les dépendances et permet de télécharger un modèle localement ou d'utiliser OpenAI. LauzHack Assistant s'exécute désormais sur http://localhost:5173.
Sinon, suivez ces étapes :
Téléchargez et ouvrez ce référentiel avec git clone [email protected]:cern-lauzhack-2023/Lauzcom-Assistant.git .
Créez un fichier .env dans votre répertoire racine et définissez la variable d'environnement API_KEY avec votre clé API OpenAI et VITE_API_STREAMING sur true ou false, selon que vous souhaitez ou non diffuser des réponses.
API_KEY= < YourOpenAIKey >
VITE_API_STREAMING=trueVoir les variables d'environnement facultatives dans les fichiers /.env-template et /application/.env_sample.
Exécutez ./run-with-docker-compose.sh.
LauzHack Assistant s'exécute désormais sur http://localhost:5173.
Pour arrêter, appuyez sur Ctrl + C .
Pour le développement, seuls deux conteneurs sont utilisés à partir de docker-compose.yaml (en supprimant tous les services sauf Redis et Mongo). Voir le fichier docker-compose-dev.yaml.
Courir:
docker compose -f docker-compose-dev.yaml build
docker compose -f docker-compose-dev.yaml up -dNote
Assurez-vous que Python 3.10 ou 3.11 est installé.
.env dans le dossier /application ..env avec votre jeton API OpenAI pour les champs API_KEY et EMBEDDINGS_KEY . (consultez application/core/settings.py si vous souhaitez voir plus d'options de configuration.)
(facultatif) Créez un environnement virtuel Python : suivez la documentation officielle Python pour les environnements virtuels.
a) Sous Linux et macOS :
python -m venv venv
. venv/bin/activateb) Sous Windows :
python -m venv venv
venv/Scripts/activateInstallez les dépendances pour le backend :
pip install -r application/requirements.txtflask --app application/app.py run --host=0.0.0.0 --port=7091L'API backend s'exécute désormais sur http://localhost:7091.
celery -A application.app.celery worker -l INFONote
Assurez-vous que vous disposez de la version 16 ou supérieure de Node.
husky et vite (ignorez s'ils sont déjà installés). npm install husky -g
npm install vite -gnpm install --include=devnpm run devLe frontend s'exécute désormais sur http://localhost:5173.
La licence du code source est MIT, comme décrit dans le fichier LICENSE.
Construit avec ? ? LangChaîne