lauzcom assistant adalah solusi interaktif dan ramah pengguna yang dirancang untuk memberikan akses tanpa batas ke data penting Swisscom. Dengan mengintegrasikan model GPT yang canggih, pelanggan dapat dengan mudah mengajukan pertanyaan tentang data publik Swisscom dan menerima jawaban akurat dengan cepat.
Ucapkan selamat tinggal pada pencarian manual yang memakan waktu, dan biarkan lauzcom assistant merevolusi interaksi pelanggan Anda.
Proyek lauzcom assistant dibuat oleh:
Video demo

Catatan
Pastikan Anda telah menginstal Docker
Di macOS atau Linux, jalankan:
./setup.shIni menginstal semua dependensi dan memungkinkan Anda mengunduh model secara lokal atau menggunakan OpenAI. LauzHack Assistant sekarang berjalan di http://localhost:5173.
Jika tidak, ikuti langkah-langkah berikut:
Unduh dan buka repositori ini dengan git clone [email protected]:cern-lauzhack-2023/Lauzcom-Assistant.git .
Buat file .env di direktori root Anda dan atur variabel env API_KEY dengan kunci API OpenAI Anda dan VITE_API_STREAMING ke benar atau salah, bergantung pada apakah Anda ingin streaming jawaban atau tidak.
API_KEY= < YourOpenAIKey >
VITE_API_STREAMING=trueLihat variabel lingkungan opsional di file /.env-template dan /application/.env_sample.
Jalankan ./run-with-docker-compose.sh.
LauzHack Assistant sekarang berjalan di http://localhost:5173.
Untuk berhenti, tekan Ctrl + C .
Untuk pengembangan, hanya dua container yang digunakan dari docker-compose.yaml (dengan menghapus semua layanan kecuali Redis dan Mongo). Lihat file docker-compose-dev.yaml.
Berlari:
docker compose -f docker-compose-dev.yaml build
docker compose -f docker-compose-dev.yaml up -dCatatan
Pastikan Anda telah menginstal Python 3.10 atau 3.11.
.env di folder /application ..env dengan token OpenAI API Anda untuk bidang API_KEY dan EMBEDDINGS_KEY . (lihat application/core/settings.py jika Anda ingin melihat opsi konfigurasi lainnya.)
(opsional) Membuat lingkungan virtual Python: Ikuti dokumentasi resmi Python untuk lingkungan virtual.
a) Di Linux dan macOS:
python -m venv venv
. venv/bin/activateb) Di Windows:
python -m venv venv
venv/Scripts/activateInstal dependensi untuk backend:
pip install -r application/requirements.txtflask --app application/app.py run --host=0.0.0.0 --port=7091API backend sekarang berjalan di http://localhost:7091.
celery -A application.app.celery worker -l INFOCatatan
Pastikan Anda memiliki Node versi 16 atau lebih tinggi.
husky dan vite (abaikan jika sudah diinstal). npm install husky -g
npm install vite -gnpm install --include=devnpm run devFrontend sekarang berjalan di http://localhost:5173.
Lisensi kode sumbernya adalah MIT, seperti yang dijelaskan dalam file LISENSI.
Dibangun dengan? ? LangChain