Una implementación completa de la pila completa sin servidor react + AWS de las aplicaciones de ejemplo que se encuentran en la documentación oficial de la API de OpenAI. Vea este diagrama arquitectónico del sistema para más detalles. Esta es una herramienta de instrucción para el canal de YouTube "Pila completa con Lawrence" y para el curso de la Universidad de Columbia Británica, "Implementación de tecnología de la nube de inteligencia artificial".
Funciona con entornos de Linux, Windows y MacOS.
Verifique los requisitos del proyecto: cuenta de AWS y Access CLI, Terraform, Python 3.11, NPM y Docker.
Revise y edite el archivo de configuración Master Terraform.
Ejecute make y agregue sus credenciales al archivo .env recién creado en la raíz del repositorio.
Inicializar, construir y ejecutar la aplicación.
git clone https://github.com/FullStackWithLawrence/aws-openai.git
make # scaffold a .env file in the root of the repo
make init # initialize Terraform, Python virtual environment and NPM
make build # deploy AWS cloud infrastructure, build ReactJS web app
make run # run the web app locally in your dev environment API Operai completa : implementa una API lista para la producción para integrarse en el conjunto completo de servicios de OpenAI, incluidos chatgtp, dall · e, whisper y tts.
Integración de Langchain : un punto final de API simple para construir aplicaciones de razonamiento de contexto con las abstracciones flexibles de Langchain y el kit de herramientas AI-First. Use este punto final para desarrollar una amplia gama de aplicaciones, desde chatbots hasta sistemas de preguntas.
Significación dinámica de chatgpt : plantillas de terraza simples para crear chatbots altamente presonalizados. Programe y cuida sus propias aplicaciones de chat personalizadas en minutos.
Llamadas de funciones : función de integración más avanzada de OpenAI hasta la fecha. La llamada de la función API de OpenAI es una característica que permite a los desarrolladores integrar sus propias funciones de Python personalizadas en el procesamiento de las respuestas de chat. Por ejemplo, cuando un chatbot impulsado por el modelo GPT-3 de OpenAI está generando respuestas, puede llamar a estas funciones de Python personalizadas para realizar tareas o cálculos específicos, y luego incluir los resultados de estas funciones en sus respuestas. Esta potente característica se puede utilizar para crear chatbots más dinámicos e interactivos que puedan realizar tareas, como obtener datos en tiempo real, realizar cálculos o interactuar con otras API o servicios. Consulte el código fuente de Python para obtener documentación y ejemplos adicionales, que incluya "get_current_weather ()" de la documentación oficial de la API de OpenAI
Complementos de llamadas de funciones : creamos nuestro propio modelo de "complemento" basado en YAML. Vea este complemento de ejemplo y esta documentación para obtener más detalles, o pruébelo en este sitio en vivo. Las plantillas YAML se pueden almacenar localmente o servirse desde un cubo seguro AWS S3. Encontrará un conjunto de complementos de ejemplo divertidos aquí.
El código fuente completo y la documentación se encuentran aquí.
Reaccionar la aplicación que aprovecha vite.js, @chatscope/chat-ui-kit-react y react-pro-sidebar.
La documentación completa se encuentra aquí. El código de Python se encuentra aquí
Una API REST que implementa cada una de las 30 aplicaciones de ejemplo de la documentación oficial de la API de OpenAI utilizando un enfoque de Terraform modularizado. Aprovecha la suite de los modelos AI de OpenAI, incluidos GPT-3.5, GPT-4, Dall · E, Whisper, Incrustaciones y moderación.
.env y terraform.tfvars .Requisitos opcionales:
La documentación detallada para cada punto final está disponible aquí: documentación
Para obtener apoyo de la comunidad, vaya a la página de problemas oficiales para este proyecto.
Este proyecto demuestra una amplia variedad de buenas mejores prácticas de codificación para gestionar los micro servicios basados en la nube misioneros en la nube en un entorno de equipo, a saber, su adherencia a la metodología de 12 factores. Consulte estas mejores prácticas de gestión de código para obtener detalles adicionales.
Queremos que este proyecto sea más accesible para los estudiantes y alumnos como una herramienta de instrucción al tiempo que no agregamos cargas de trabajo de revisión de código indebido a cualquier persona con autoridad de fusión para el proyecto. Con este fin, también hemos agregado varias herramientas de aplicación de estilo de código de código previo al comercio y código de código, así como procedimientos automatizados para el mantenimiento de la versión de las dependencias de paquetes, las evaluaciones de solicitudes de extracción y los lanzamientos semánticos.
¡Agradecemos las contribuciones! Hay una variedad de formas de involucrarse, independientemente de sus antecedentes. Además de las solicitudes de extracción, este proyecto se beneficiaría de los contribuyentes centrados en la documentación y la creación de contenido de video, las pruebas, la participación comunitaria y los mayordomos para ayudarnos a garantizar que cumplamos con los estándares de evolución para el uso ético de la IA.
Para los desarrolladores, consulte:
También puede contactar directamente a Lawrence McDaniel. Composición de código a partir de febrero de 2024:
-------------------------------------------------------------------------------
Language files blank comment code
-------------------------------------------------------------------------------
Python 29 732 722 2663
HCL 30 352 714 2353
Markdown 52 779 6 2344
YAML 23 112 149 1437
JavaScript 39 114 127 1088
JSX 6 45 47 858
CSS 5 32 14 180
make 1 27 30 120
Text 6 13 0 117
INI 2 15 0 70
HTML 2 1 0 65
Jupyter Notebook 1 0 186 48
Bourne Shell 5 17 55 47
TOML 1 1 0 23
Dockerfile 1 4 4 5
-------------------------------------------------------------------------------
SUM: 203 2,244 2,054 11,418
-------------------------------------------------------------------------------