LLM IK
1.0.0
Dieses Repository dient zum Erstellen und Testen der inversen Kinematiklösungen, die von Großsprachmodellen (LLMs) für kinematische Ketten mit einem einzigen "Endeffektor" erzeugt wurden.
python3 -m venv .venv ..venvScriptsactivate.bat ..venvScriptsactivate.ps1 .source .venv/bin/activate .pip install -r requirements.txt .Robots oder Models und den Ordnern Providers , wenn Sie einige der gleichen Roboter oder LLMs wie wir verwenden möchten.Robots vorhanden ist, und platzieren Sie die URDF -Dateien der Roboter, die Sie sich im Inneren verwenden möchten.Models vorhanden ist, und platzieren Sie alle Ihre LLM -Spezifikationsdateien, die Sie im Abschnitt "Modelle" verwenden möchten.Providers vorhanden ist, und platzieren Sie Ihre openAI -API -kompatiblen Spezifikationsdateien, die Sie in dem Abschnitt "Anbieter" detailliert verwenden möchten.Keys vorhanden ist, und erstellen Sie .txt -Dateien mit dem Namen der OpenAI -API -kompatiblen Spezifikationsdateien im Ordner Providers und fügen Sie die entsprechenden API -Schlüssel in die einzelnen ein.llm_ik mit den Parametern aus, die im Nutzungsabschnitt beschrieben sind.Results im Root -Verzeichnis an..txt -Dateien im Ordner " Models im Stammverzeichnis" angegeben.True oder False und defasiert zu False . Wenn nicht ein Argumentationsmodell, enthält die Eingabeaufforderungen eine Erklärung, um "Schritt für Schritt zu denken und alle Ihre Arbeiten zu zeigen", um einige Vorteile aus dem Gedankenkettenketten zu erzielen. Andernfalls wird dies weggelassen, da die Argumentation bereits einen solchen Prozess intern durchführt..txt -Erweiterung), die aus dem Ordner Providers verwendet werden soll. Weitere Informationen finden Sie im Abschnitt Anbieter, um diese Dateien selbst zu konfigurieren.True oder False angegeben ist und festgelegt ist, ob sein Anbieter Funktionen unterstützt. Dies ist nützlich, da einige Anbieter, wie z. B. OpenRouter, Funktionsaufruf unterstützt, aber nicht alle Modelle, die sie auch anbieten, um eine Option zur Durchführung einer Überschreibung pro Model zu bieten. Wenn der Anbieter jedoch keine Funktionsaufrufe unterstützt und dies auf True festgelegt ist, überschreibt die Konfiguration des Anbieters dies auf False , sodass dies nur zum Deaktivieren von Funktionsaufrufen verwendet und nicht aktiviert werden kann. Wenn dies False ist, werden der Eingabeaufforderung zusätzliche Details hinzugefügt, sodass Modelle weiterhin Methoden aufrufen können, nur nicht über die OpenAI -API -Funktionen, und stattdessen wird die reguläre Nachrichtenantwort analysiert..txt -Erweiterung) verwendet..txt -Dateien im Ordner Providers im Stammverzeichnis angegeben. True oder False angegeben ist und sich gegen False versiegt. Wenn der Anbieter Methoden unterstützt, ein Modell jedoch nicht wie im Abschnitt "Modelle" erläutert wird, wird dies nur für dieses Modell zu False geschrieben.-r oder --robots -Die Namen der Roboter. None , die alle Roboter -URDF -Dateien in den Robots -Ordner laden.-m oder --max -Die maximale Kettenlänge zu laufen. Standardeinstellungen zu 0 , was bedeutet, dass es keine Begrenzung gibt.-o oder --orientation -Wenn wir zusätzlich zur Position für die Orientierung lösen möchten. Standardmäßig True .-t oder --types -der höchste Lösungsart zum Ausführen. Standardeinstellungen zu Transfer , was bedeutet, dass alle ausgeführt werden.-f oder --feedbacks -die maximale Häufigkeit, um Feedback zu geben. Standardeinstellung auf 5 .-e oder --examples -die Anzahl der Beispiele, die mit Feedbacks geben können. Standardeinstellung auf 10 .-a oder --training -Die Anzahl der Trainingsmuster. Standardeinstellung auf 1000 .-v oder --evaluating -die Anzahl der Bewertungsproben. Standardeinstellung auf 1000 .-s oder --seed -die Probenerzeugungsamen. Standardeinstellungen zu 42 .-d oder --distance -Der akzeptable Entfernungsfehler. Standardeinstellung auf 0.001 .-n oder --angle -Der akzeptable Winkelfehler. Standardeinstellung auf 0.001 .-c oder --cwd -Das Arbeitsverzeichnis. Standardmäßig None , die das aktuelle Arbeitsverzeichnis erhält.-l oder --logging -Die Protokollierungsstufe. Standardeinstellungen zu INFO .-w oder --wait -wie lange Sie zwischen API -Anrufen warten. Standardeinstellung auf 1 Sekunde.-u oder --run -Flag -Aktivieren Sie die API.-b oder --bypass -Flag -Umgehen Sie die Bestätigung für das Laufen von API. Interactions , bis Sie den Roboter, das Modell und die Lösung finden, nach denen Sie suchen.X-Prompt.txt , X-Feedback.txt , X-Forward.txt oder X-Test.txt in Ihre Chat-Schnittstelle und warten Sie auf eine Antwort, bei der X eine Nummer ist.X-Response.txt , wobei X die nächste Nummer für den Chat-Verlauf ist und das Programm erneut ausführen. Wiederholen Sie den vorherigen Schritt und dies, bis eine Datei namens X-Done.txt erscheint, wo X eine Nummer ist.