Bryan Agents ist ein fortschrittliches Multi-Agent-System, das zum Generieren von Musikvideos basierend auf Texten entwickelt wurde. Dieses Projekt analysiert die Texte und erstellt detaillierte Eingabeaufforderungen basierend auf den Analyseergebnissen, um storyähnliche Bilder zu generieren und letztendlich ein Musik-zu-Image-Musikvideo zu erstellen. Das System nutzt die OpenAI-API, insbesondere das GPT-4O-Modell für die Textverarbeitung und das Dall-E 3-Modell für die Bildgenerierung, um eine End-to-End-Lösung für die Erstellung von Videoinhalten bereitzustellen.
Stellen Sie vor Beginn sicher, dass Sie die folgenden Anforderungen erfüllt haben:
ffmpeg installiert und erhältlich auf dem Weg Ihres Systemsffmpeg ffmpeg von der offiziellen Website herunter.bin dem Pfad Ihres Systems hinzu:Path im Abschnitt "Systemvariablen" und wählen Sie sie aus. Klicken Sie auf "Bearbeiten".bin -Ordner des extrahierten ffmpeg -Archivs hinzu. Klicken Sie auf "OK", um die Änderungen anzuwenden. Installieren Sie Homebrew , wenn Sie nicht installiert sind. Öffnen Sie das Terminal und laufen Sie:
/bin/bash -c " $( curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh ) " Verwenden Sie Homebrew , um ffmpeg zu installieren:
brew install ffmpegFür Debian-basierte Verteilungen (z. B. Ubuntu) öffnen Sie das Terminal und Run:
sudo apt update
sudo apt install ffmpegFür Red Hat-basierte Verteilungen (z. B. Fedora) öffnen Sie das Terminal und rennen:
sudo dnf install ffmpegKlonen Sie das Repository:
git clone https://github.com/tanbryan/ai-mv-generator
cd bryan-agentErstellen und aktivieren Sie eine virtuelle Umgebung (optional):
python -m venv venv
source venv/bin/activate # On Windows use `venvScriptsactivate`Installieren Sie die erforderlichen Abhängigkeiten:
pip install -r requirements.txtRichten Sie Ihren OpenAI -API -Schlüssel ein:
Erstellen Sie eine .env -Datei im Projektroot und fügen Sie Ihren OpenAI -API -Schlüssel hinzu:
OPENAI_API_KEY = " your_openai_api_key_here " Führen Sie das Hauptskript aus:
Stellen Sie sicher, dass sich die Lyrics -Datei (.LRC) und die Musikdatei (.mp3) in einem dedizierten Verzeichnis befinden. ❗️Plase Stellen Sie sicher, dass beide Dateien im Format von 'SongName-ArtistName.lrc oder .mp3' in den runner.py eingehen.
python runner.pyAusführung und Ergebnissersparnis von Agenten:
Jeder Agent arbeitet nacheinander in der bereitgestellten Textedatei:
Während der Ausführung wird eine agent_status.json -Datei im Verzeichnis Base_agent erstellt. Diese Datei verfolgt den Status jedes Agenten. Wenn ein Agent abgeschlossen ist, wird der Status auf true festgelegt. Sie können den Status jederzeit auf false festlegen, um bei Bedarf einen bestimmten Agenten erneut auszusetzen.
Überprüfen Sie die generierten Eingabeaufforderungen:
Das Skript wird nach dem Erstellen der Eingabeaufforderungen innehalten. Überprüfen Sie sie in der generierten JSON -Datei im Verzeichnis von Texten. Nach der Überprüfung drücken Sie die Eingabetaste, um fortzufahren.
Vervollständigen Sie die Bild- und Videogenerierung:
Befolgen Sie die Eingabeaufforderungen, um den Bild- und Videogenerierungsprozess abzuschließen.
Im test finden Sie nach dem Laufen Beispielausgaben basierend auf der "Liebesgeschichte" von Taylor Swift Lyrics Datei:
LoveStory-TaylorSwift.mp4 : Die Vorschau des endgültigen generierten Videos.background.mp4 : Pre -generierter Hintergrund Video.generated_prompts.json : Die JSON -Datei, die die für die Bilder generierten detaillierten Eingabeaufforderungen enthält.logo.png : Das generierte Logo für das Musikvideo.results.json : Die JSON -Datei, die die Ergebnisse jedes Agenten enthält.background_images/ : Ein Ordner, der die basierenden Hintergrundbilder enthält, die basierend auf den Eingabeaufforderungen generiert sind.Diese Proben bieten ein Beispiel für die Ausgabe, die Sie vom System erwarten können.
Dieses Projekt ist unter der MIT -Lizenz lizenziert. Weitere Informationen finden Sie in der Lizenzdatei.