No tengo tiempo para mantenerlo y necesita una serie de actualizaciones para estar preparadas para la producción. Avíseme si está interesado en hacerse cargo del mantenimiento.

Un marco simple para usar Llamaindex para construir e implementar agentes LLM que puedan usarse para analizar y manipular datos de texto de documentos.
Licencia: MIT
El lanzamiento inicial de Delphic se basa únicamente en la API de Openai. Planeamos completamente apoyar otros modelos de idiomas grandes (LLM), ya sea autohospedados o alimentados por una API de terceros. En este momento, sin embargo, a partir de abril de 2023, Open AI's API sigue siendo quizás la más capaz y fácil de desplegar. Dado que este marco se basa en Llamaindex y es totalmente compatible con Langchain, será bastante fácil usar otros LLM. Por el momento, sin embargo, su texto se procesará con OpenAI, incluso si se autohondea esta herramienta. Si los términos de servicio de OpenAI presentan un problema para usted, le dejamos que se resuelva. No somos responsables de ningún problema que salga de su uso de esta herramienta y la API de OpenAI.
La forma más rápida de poner en funcionamiento es clonar este repositorio y luego implementar la aplicación localmente.
Necesitará Docker y Docker componen para seguir estas instrucciones. DigitalOcean, además de ser un excelente host en la nube, tiene algunas de las instrucciones más fáciles de seguir para configurarlas. Por favor, échales un vistazo aquí o vaya a las instrucciones oficiales de Docker.
git clone
cd delphic
mkdir -p ./.envs/.local/
cp -a ./docs/sample_envs/local/.frontend ./frontend
cp -a ./docs/sample_envs/local/.django ./.envs/.local
cp -a ./docs/sample_envs/local/.postgres ./.envs/.local
Y, luego actualice su configuración .django (probablemente también desee editar .postgres para darle a su usuario de base de datos una contraseña única) para incluir su clave de API OpenAI
Luego, construya las imágenes de Docker:
sudo docker-compose --profile fullstack -f local.yml build
sudo docker-compose --profile fullstack -f local.yml up
Vaya a localhost:3000 para ver el interfaz.
Si desea desarrollar activamente el frontend, le sugerimos que no use el indicador --profile=fullstack , ya que cada cambio requerirá una reconstrucción de contenedores completo. En su lugar, vea el entorno de desarrollo en lugar del paso #5 anterior,
Esto supone que desea que la aplicación esté a disposición de Internet en algún tipo de dominio totalmente calificado como Delphic.opensaurce.legal. Para hacer esto, debe actualizar un par de configuraciones.
TODO - Insertar documentación
Para usar realmente la aplicación (en este momento, tenemos la intención de hacer posible compartir ciertos modelos con usuarios no autenticados), necesita un inicio de sesión. Puede usar un Superuser o no Superuser. En cualquier caso, alguien debe crear primero un superusor usando la consola:
¿Por qué configurar un superusador de Django? Un Superuser Django tiene todos los permisos en la aplicación y puede administrar todos los aspectos del sistema, incluida la creación, modificación y eliminación de usuarios, colecciones y otros datos. Configurar un Superuser le permite controlar y administrar completamente la aplicación.
** En este momento, cualquier usuario que registre tendrá permisos completos. Planeamos implementar el módulo de control de acceso más preciso y basado en roles que desarrollamos para OpenContracts, pero, por ahora, tengan en cuenta que cualquier persona con cualquier tipo de credenciales de inicio de sesión puede crear y eliminar colecciones. La creación de colecciones utiliza créditos / costos de OpenAI dinero
sudo docker-compose -f local.yml run django python manage.py createsuperuser
Inicie su aplicación Delphic localmente siguiendo las instrucciones de implementación.
ADVERTENCIA: si está utilizando OpenAI como su motor LLM, cualquier interacción de colección utilizará créditos de API / costará dinero. Si está utilizando su propia clave API OpenAI, también ha aceptado sus Términos de servicio que pueden no ser adecuados para su caso de uso. Por favor haga su propia diligencia.
Para acceder a la interfaz de preguntas de preguntas, mencione el FullStack y vaya a http://localhost:3000
Si desea contribuir a Delphic o enrollar su propia versión, querrá asegurarse de configurar el entorno de desarrollo.
En el backend, necesitará tener un entorno de Python que funcione para ejecutar los cheques de formato previos al compromiso. Puede usar su sistema Python Interpreter, pero recomendamos usar PyenV y crear un envíulo virtual basado en Python> = 3.10.
Luego, en la raíz de su repositorio local, ejecute estos comandos:
pip install -r ./requirements/local.txt
pre-commit install
Ahora, cuando organiza sus compromisos, el formato de código AR y las verificaciones de estilo se ejecutarán automáticamente.
Tenemos una suite de prueba básica en ./tests . Puede ejecutar las pruebas escribiendo:
sudo docker-compose -f local.yml run django python manage.py test
En la interfaz, estamos usando el nodo V18.15.0. Asumimos que estás usando NVM. Todavía no tenemos pruebas de frontend (lo siento).
CD en el directorio frontend, instale sus dependencias frontend e inicie un servidor de desarrollo ( nota, suponemos que tiene NVM instalado. Si no lo instala ahora ):
cd frontend
nvm use
npm install yarn
yarn install
yarn start de escritura aparecerá en su servidor de desarrollo frontend en http://localhost:3000 . Todavía necesita lanzar el backend para que funcione correctamente.
fullstackInicie el backend sin la bandera FullStack:
sudo docker-compose -f local.yml up