Version 1 Datei: flach_langchain_report.py (auf Repo für Usability -Fälle aufbewahrt)
Version 2 Datei: flach_langchain_report_with_audio.py (neuestes und bestes!)
Shallow_langchain_report_with_audio kombiniert die erste Version mit Implementierungen von Code, um Audiodateien zu unterstützen. Daher können Sie jetzt Version 2 ausführen, um eine Audio -Datei (M4A usw.) einzureichen, und sie erstellt eine .txt -Datei mit dem Titel "audio_generated_text.txt" im selben Verzeichnis. Von dort aus wird diese .txt -Datei gelesen und einen zusammengefassten Bericht über den Inhalt erstellt! Ist das nicht das Coolste, was es je gab?
Es wird immer noch als "flach" bezeichnet, da das Backend noch nicht implementiert ist - was dazu führt, dass Ihre Ausgabe häufig geschnitten wird (das Kontextfenster ist für die KI -Ausgabe zu groß). Dies wird in Version 2 mit einem Tinecone -Backend gelöst, um längere Sitzungen bereitzustellen. Bleib dran für Version 3!
Laden Sie die .py -Dateien herunter, indem Sie das Repo klonen, oder wie auch immer Sie sich wünschen.
Suchen Sie dann die Funktion der LLM_Initialisierung (der Funktionsaufruf ist die erste Zeile in Main) und fügen Sie Ihre OpenAI-API-Taste in das Textfeld "SK-..." ein.
Die einzige andere Verwendungsanforderung besteht darin, eine Audiodatei als Benutzereingabe bereitzustellen. Wir haben es auf .M4A -Dateien getestet, die Dateien aus "Sprachmemos" -Anwendung auf iPhones sind. Weitere Filetyp -Tests und -unterstützung, um später zu kommen.
Dieses Tool ist Teil der KI -Tool -Entwicklungsinitiative von Blueprint. Greifen Sie auf sie zu: LinkedIn
Projektzeitleiste: 15. Juni, 2023 - 27. Juli, 2023