Eine React + AWS Serverless Vollstapel -Implementierung der Beispielanwendungen in der offiziellen OpenAI -API -Dokumentation. Einzelheiten finden Sie in diesem Architekturdiagramm des Systems. Dies ist ein Lehrwerkzeug für den YouTube -Kanal "Full Stack with Lawrence" und für den Kurs der University of British Columbia "Artificial Intelligence Cloud Technology Implementation".
Funktioniert mit Linux-, Windows- und MacOS -Umgebungen.
Überprüfen Sie die Projektanforderungen: AWS -Konto und CLI -Zugriff, Terraform, Python 3.11, NPM und Docker Compose.
Überprüfen und bearbeiten Sie die Konfigurationsdatei Master Terraform.
Führen Sie Ihre Anmeldeinformationen make und fügen Sie Ihre Anmeldeinformationen zur neu erstellten .env -Datei im Stamm des Repo hinzu.
Initialisieren, erstellen und führen Sie die Anwendung aus.
git clone https://github.com/FullStackWithLawrence/aws-openai.git
make # scaffold a .env file in the root of the repo
make init # initialize Terraform, Python virtual environment and NPM
make build # deploy AWS cloud infrastructure, build ReactJS web app
make run # run the web app locally in your dev environment Vollständige OpenAI-API : Bereitet eine produktionsbereite API für die Integration von OpenAIs komplettem Dienste bereit, einschließlich Chatgtp, Dall · E, Whisper und TTS.
Langchain-Integration : Ein einfacher API-Endpunkt für den Erstellen von Kontextbekenntnissen, Begründung Anwendungen mit Langchains flexiblen Abstraktionen und AI-First-Toolkit. Verwenden Sie diesen Endpunkt, um eine breite Palette von Anwendungen zu entwickeln, von Chatbots bis hin zu Fragen-Beantwortungssystemen.
Dynamische Chatgpt -Aufforderung : Einfache Terraformvorlagen zum Erstellen von hochpräparalisierten Chatbots. Programm und häuten Sie Ihre eigenen benutzerdefinierten Chat -Apps in Minuten.
Funktionsaufruf : OpenAIs bisher fortschrittlichste Integrationsfunktion. Die OpenAI -API -Funktion Aufrufe ist eine Funktion, mit der Entwickler ihre eigenen benutzerdefinierten Python -Funktionen in die Verarbeitung von Chat -Antworten integrieren können. Wenn beispielsweise ein Chatbot, der vom GPT-3-Modell von OpenAI betrieben wird, Antworten erzeugt, kann es diese benutzerdefinierten Python-Funktionen aufrufen, um bestimmte Aufgaben oder Berechnungen auszuführen, und dann die Ergebnisse dieser Funktionen in seine Antworten aufzunehmen. Diese leistungsstarke Funktion kann verwendet werden, um dynamischere und interaktivere Chatbots zu erstellen, mit denen Aufgaben wie das Abrufen von Echtzeitdaten, die Durchführung von Berechnungen oder die Interaktion mit anderen APIs oder Diensten ausgeführt werden können. Weitere Dokumentationen und Beispiele, einschließlich "get_current_weather ()" aus der offiziellen OpenAI -API -Dokumentation
Funktionsaufruf-Plugins : Wir haben unser eigenes YAML-basiertes "Plugin" -Modell erstellt. Weitere Informationen finden Sie in diesem Beispiel -Plugin und dieser Dokumentation oder probieren Sie es auf dieser Live -Website aus. YAML -Vorlagen können lokal gelagert oder aus einem sicheren AWS S3 -Eimer serviert werden. Hier finden Sie einige lustige Beispiel -Plugins.
Der vollständige Quellcode und die Dokumentation finden Sie hier.
React App, die vite.js, @chatscope/chat-ui-kit-reagiert und reag-pro-SideBar nutzt.
Die vollständige Dokumentation finden Sie hier. Der Python -Code befindet sich hier
Eine REST -API, die jede der 30 Beispielanwendungen aus der offiziellen OpenAI -API -Dokumentation unter Verwendung eines modularisierten Terraform -Ansatzes implementiert. Nutzt die Suite von AI-Modellen von Openai, einschließlich GPT-3,5, GPT-4, Dall · E, Flüsterung, Einbettungen und Mäßigung.
.env und terraform.tfvars Dateien.Optionale Anforderungen:
Eine detaillierte Dokumentation für jeden Endpunkt ist hier verfügbar: Dokumentation
Um Community -Unterstützung zu erhalten, besuchen Sie die offizielle Themenseite für dieses Projekt.
Dieses Projekt zeigt eine Vielzahl gut Coding-Best Practices für die Verwaltung von Micro-basierten Micro-Diensten von Missionskritischen Cloud in einer Teamumgebung, nämlich deren Einhaltung der 12-Faktor-Methodik. Weitere Informationen finden Sie in diesem Code -Management Best Practices.
Wir möchten dieses Projekt für Schüler und Lernende als Unterrichtstool zugänglicher machen, während wir keinen unangemessenen Code -Überprüfungs -Workloads für jeden mit Merge -Autorität für das Projekt hinzufügen. Zu diesem Zweck haben wir auch mehrere Tools für die Durchsetzung von Codes und Code-Style-Durchsetzungen sowie automatisierte Verfahren für die Version der Version von Paketabhängigkeiten, Pull-Request-Bewertungen und semantische Veröffentlichungen hinzugefügt.
Wir begrüßen Beiträge! Es gibt eine Vielzahl von Möglichkeiten, wie Sie sich engagieren können, unabhängig von Ihrem Hintergrund. Zusätzlich zu Pull-Anfragen würde dieses Projekt von Mitwirkenden profitieren, die sich auf Dokumentation und Erstellung von Videoinhalten, Tests, Community-Engagement und Stewards konzentrieren, um sicherzustellen, dass wir die sich entwickelnden Standards für die ethische Verwendung von KI einhalten.
Für Entwickler siehe bitte:
Sie können sich auch direkt an Lawrence McDaniel wenden. Code-Komposition vom Februar 2024:
-------------------------------------------------------------------------------
Language files blank comment code
-------------------------------------------------------------------------------
Python 29 732 722 2663
HCL 30 352 714 2353
Markdown 52 779 6 2344
YAML 23 112 149 1437
JavaScript 39 114 127 1088
JSX 6 45 47 858
CSS 5 32 14 180
make 1 27 30 120
Text 6 13 0 117
INI 2 15 0 70
HTML 2 1 0 65
Jupyter Notebook 1 0 186 48
Bourne Shell 5 17 55 47
TOML 1 1 0 23
Dockerfile 1 4 4 5
-------------------------------------------------------------------------------
SUM: 203 2,244 2,054 11,418
-------------------------------------------------------------------------------