Uma implementação de pilha completa do React + AWS sem servidor dos aplicativos de exemplo encontrados na documentação oficial da API OpenAI. Veja este diagrama arquitetônico do sistema para obter detalhes. Esta é uma ferramenta instrucional para o canal do YouTube "Stack Full With Lawrence" e para o curso da Universidade da Colúmbia Britânica, "Implementação de Tecnologia da Cloud de Inteligência Artificial".
Funciona com ambientes Linux, Windows e MacOS.
Verifique os requisitos do projeto: AWS Conta e CLI Access, Terraform, Python 3.11, NPM e Docker Compose.
Revise e edite o arquivo de configuração principal do Terraform.
make e adicione suas credenciais ao arquivo .env recém -criado na raiz do repositório.
Inicialize, construa e execute o aplicativo.
git clone https://github.com/FullStackWithLawrence/aws-openai.git
make # scaffold a .env file in the root of the repo
make init # initialize Terraform, Python virtual environment and NPM
make build # deploy AWS cloud infrastructure, build ReactJS web app
make run # run the web app locally in your dev environment API completa do OpenAI : implanta uma API pronta para a produção para integrar o conjunto completo de serviços da OpenAI, incluindo ChatGTP, Dall · E, Whisper e TTS.
Integração do Langchain : um ponto de extremidade simples da API para criar consciência de contexto, raciocínio com as abstrações flexíveis de Langchain e o primeiro kit de ferramentas da AI. Use esse endpoint para desenvolver uma ampla gama de aplicativos, desde chatbots a sistemas de resposta a perguntas.
Promotamento dinâmico de chatgpt : modelos simples de terraform para criar chatbots altamente pré -presonalizados. Programar e pele seus próprios aplicativos de bate -papo personalizados em minutos.
Chamada de função : o recurso de integração mais avançado do OpenAI até o momento. O OpenAI API Function Calling é um recurso que permite aos desenvolvedores integrar suas próprias funções Python personalizadas no processamento das respostas de bate -papo. Por exemplo, quando um chatbot alimentado pelo modelo GPT-3 do OpenAI está gerando respostas, ele pode chamar essas funções Python personalizadas para executar tarefas ou cálculos específicos e, em seguida, incluir os resultados dessas funções em suas respostas. Esse recurso poderoso pode ser usado para criar chatbots mais dinâmicos e interativos que podem executar tarefas como buscar dados em tempo real, realizar cálculos ou interagir com outras APIs ou serviços. Consulte o código -fonte do Python para obter documentação e exemplos adicionais, incluindo "get_current_weather ()" da documentação oficial da API Openai
Plugins de chamada de função : criamos nosso próprio modelo de "plug-in" baseado em YAML. Consulte este plugin de exemplo e esta documentação para obter detalhes ou experimente neste site ao vivo. Os modelos da YAML podem ser armazenados localmente ou servidos a partir de um balde seguro do AWS S3. Você encontrará um conjunto de plugins de exemplo divertido aqui.
O código -fonte e a documentação completos estão localizados aqui.
React App que utiliza Vite.js, @chatscope/chat-ui-kit-react e react-pro-sidebar.
A documentação completa está localizada aqui. O código Python está localizado aqui
Uma API REST implementando cada um dos 30 aplicativos de exemplo da documentação oficial da API do OpenAI usando uma abordagem de Terraform modularizada. Aproveita o conjunto de modelos de IA do OpenAI, incluindo GPT-3.5, GPT-4, Dall · E, Whisper, Incordações e moderação.
.env e terraform.tfvars .Requisitos opcionais:
Documentação detalhada para cada terminal está disponível aqui: documentação
Para obter apoio da comunidade, acesse a página de questões oficiais para este projeto.
Este projeto demonstra uma ampla variedade de boas práticas recomendadas de codificação para gerenciar os micro serviços de missão crítica em nuvem em um ambiente de equipe, a saber, sua adesão à metodologia de 12 fatores. Consulte esta prática recomendada para gerenciamento de código para obter detalhes adicionais.
Queremos tornar este projeto mais acessível aos alunos e alunos como uma ferramenta instrucional, sem adicionar cargas de trabalho de revisão de código indevidas a qualquer pessoa com autoridade de mesclagem para o projeto. Para esse fim, também adicionamos várias ferramentas de revestimento de código e estilo de código pré-comprometimento, bem como procedimentos automatizados para manutenção de versões de dependências de pacotes, avaliações de solicitação e liberações semânticas.
Congratulamo -nos com contribuições! Existem várias maneiras de você se envolver, independentemente de sua formação. Além das solicitações de extração, este projeto se beneficiaria de colaboradores focados na documentação e na criação de conteúdo de vídeo, teste, engajamento da comunidade e administradores para nos ajudar a garantir que cumprimos os padrões em evolução para o uso ético da IA.
Para desenvolvedores, consulte:
Você também pode entrar em contato diretamente com Lawrence McDaniel. Composição de código em fevereiro de 2024:
-------------------------------------------------------------------------------
Language files blank comment code
-------------------------------------------------------------------------------
Python 29 732 722 2663
HCL 30 352 714 2353
Markdown 52 779 6 2344
YAML 23 112 149 1437
JavaScript 39 114 127 1088
JSX 6 45 47 858
CSS 5 32 14 180
make 1 27 30 120
Text 6 13 0 117
INI 2 15 0 70
HTML 2 1 0 65
Jupyter Notebook 1 0 186 48
Bourne Shell 5 17 55 47
TOML 1 1 0 23
Dockerfile 1 4 4 5
-------------------------------------------------------------------------------
SUM: 203 2,244 2,054 11,418
-------------------------------------------------------------------------------