Dieses Repository enthält die Code-Beispiele, mit denen die Teilnehmer mit der RAGER-Basis der Amazon-Grundgestein und der Amazon OpenSearch Serverless (AOSS) lernen können, wie sie die Architektur Amazon und Amazon OpenSearch (AOSS) verwenden, um schnell einen sicheren Assistenten zu erstellen, der die aktuellsten Informationen verwendet, um sich mit Benutzern zu unterhalten. Die Teilnehmer erfahren auch, wie dieser Assistent dialoggesteuerte Informationen zum Abrufen von Informationen verwendet, um auf Benutzer zu reagieren.
Amazon Bedrock ist ein vollständig verwalteter Service, der eine Auswahl an leistungsstarken Fundamentmodellen (FMS) von führenden KI-Unternehmen bietet, die über eine einzelne API zugänglich sind, sowie eine breite Anzahl von Funktionen, die Sie zum Aufbau generativer KI-Anwendungen benötigen, um die Entwicklung zu vereinfachen und gleichzeitig die Privatsphäre und Sicherheit aufrechtzuerhalten.
Große Sprachmodelle (LLMs) sind eine Art Fundamentmodell, das natürliche Langauge als Eingabe annehmen kann, mit der Fähigkeit, es zu verarbeiten und zu verstehen und natürliche Sprache als Ausgabe zu erzeugen. LLMs können auch Aufgaben wie Klassifizierung, Zusammenfassung, Vereinfachung, Entitätserkennung usw. ausführen.
LLMs werden normalerweise offline mit Daten geschult, die bis zu diesem Zeitpunkt verfügbar sind. Infolgedessen wird LLMs nach diesem Datum keine Kenntnis der Welt haben. Zusätzlich werden LLMs auf sehr allgemeinen Domänenkorpora geschult, wodurch sie bei domänenspezifischen Aufgaben weniger effektiv sind. Und dann haben LLMs die Tendenz, zu halluzinieren, wo das Modell zu einem falschen, unsinnigen oder nicht realen Text erzeugt wird. Die Verwendung eines RAG -Mechanismus (Abrufener Augment Generation) kann dazu beitragen, all diese Probleme zu mildern. Eine Lag -Architektur beinhaltet das Abrufen von Daten, die den Text in der Eingabeaufforderung des Benutzers von einer externen Datenquelle genau übereinstimmen und die Eingabeaufforderung vor dem Senden an die LLM erhöhen. Diese schnelle Augmentation liefert den Kontext, mit dem das LLM auf die Eingabeaufforderung reagieren kann.
Wenn es mulitple Datenquellen gibt, müssen die Relivalanforderung an die entsprechende Datenquelle weitergeleitet werden, bevor das tatsächliche Abruf durchgeführt wird. Dies ist ein Lag -Router -Muster.
Dieses Repository enthält Code, der Sie durch den Prozess des Erstellens eines erweiterten Assistenten mit Rag -Router -Basis mit einem großen Sprachmodell (LLM) führt, das auf Amazon -Grundgestein gehostet wird und Wissensbasis für Amazon -Grundgestein zum vektorisierenden, gespeicherten und abgerufenen Daten durch semantische Suche verwendet wird. Amazon OpenSearch Serverless wird als Vektorindex verwendet.
py312_opensearch-py_requests_and_requests-aws4auth.zip using the following procedure and upload it to the same Amazon S3 bucket as in step 3.C:/Program Files/7-Zip/ .cd into it.py312_opensearch-py_requests_and_requests-aws4auth.zip .cd into it.py312_opensearch-py_requests_and_requests-aws4auth.zip .Dieses Repository enthält
Ein Jupyter -Notizbuch zum Einstieg.
Eine Reihe von Helferfunktionen für das Notizbuch
Architekturdiagramme, die die verschiedenen in dieser Sitzung verwendeten Komponenten zusammen mit ihren Interaktionen zeigen.
Weitere Informationen finden Sie unter Beitrag.
Diese Bibliothek ist im Rahmen der MIT-0-Lizenz lizenziert. Siehe die Lizenzdatei.