lauzcom assistant é uma solução interativa e fácil de usar, projetada para fornecer acesso contínuo a dados críticos da Swisscom. Ao integrar modelos GPT poderosos, os clientes podem facilmente fazer perguntas sobre dados públicos da Swisscom e receber respostas precisas rapidamente.
Diga adeus às pesquisas manuais demoradas e deixe lauzcom assistant revolucionar as interações com o cliente.
O projeto lauzcom assistant é criado por:
Vídeo de demonstração

Observação
Certifique-se de ter o Docker instalado
No macOS ou Linux, execute:
./setup.shEle instala todas as dependências e permite baixar um modelo localmente ou usar OpenAI. LauzHack Assistant agora é executado em http://localhost:5173.
Caso contrário, siga estas etapas:
Baixe e abra este repositório com git clone [email protected]:cern-lauzhack-2023/Lauzcom-Assistant.git .
Crie um arquivo .env em seu diretório raiz e defina a variável env API_KEY com sua chave de API OpenAI e VITE_API_STREAMING como verdadeiro ou falso, dependendo se você deseja transmitir respostas ou não.
API_KEY= < YourOpenAIKey >
VITE_API_STREAMING=trueConsulte variáveis de ambiente opcionais nos arquivos /.env-template e /application/.env_sample.
Execute ./run-with-docker-compose.sh.
LauzHack Assistant agora é executado em http://localhost:5173.
Para parar, pressione Ctrl + C .
Para desenvolvimento, apenas dois contêineres são usados do docker-compose.yaml (excluindo todos os serviços, exceto Redis e Mongo). Consulte o arquivo docker-compose-dev.yaml.
Correr:
docker compose -f docker-compose-dev.yaml build
docker compose -f docker-compose-dev.yaml up -dObservação
Certifique-se de ter o Python 3.10 ou 3.11 instalado.
.env na pasta /application ..env com seu token de API OpenAI para os campos API_KEY e EMBEDDINGS_KEY . (confira application/core/settings.py se quiser ver mais opções de configuração.)
(opcional) Crie um ambiente virtual Python: Siga a documentação oficial do Python para ambientes virtuais.
a) No Linux e macOS:
python -m venv venv
. venv/bin/activateb) No Windows:
python -m venv venv
venv/Scripts/activateInstale dependências para o back-end:
pip install -r application/requirements.txtflask --app application/app.py run --host=0.0.0.0 --port=7091A API de back-end agora é executada em http://localhost:7091.
celery -A application.app.celery worker -l INFOObservação
Certifique-se de ter o Node versão 16 ou superior.
husky e vite (ignore se já estiver instalado). npm install husky -g
npm install vite -gnpm install --include=devnpm run devO frontend agora é executado em http://localhost:5173.
A licença do código fonte é MIT, conforme descrito no arquivo LICENSE.
Construído com? ? LangChain