Wenlong Huang 1 , Pieter Abbeel 1 , Deepak Pathak* 2 , Igor Mordatch* 3 (* gleichberechtigte Beratung)
1 Universität von Kalifornien, Berkeley, 2 Carnegie Mellon University, 3 Google Brain

Dies ist der offizielle Demo-Code für unsere Sprachmodelle als planerpapier mit Null-Shot-Planern. Der Code zeigt, wie große Sprachmodelle wie GPT-3 und Codex auch ohne weiteres Training Aktionspläne für komplexe menschliche Aktivitäten (z. B. "Frühstück machen") erzeugen können. Der Code kann mit allen verfügbaren Sprachmodellen von OpenAI -API und Huggingface -Transformatoren mit einer gemeinsamen Schnittstelle verwendet werden.
Wenn Sie diese Arbeit in Ihrer Forschung nützlich finden, zitieren Sie bitte mit den folgenden Bibtex:
@article { huang2022language ,
title = { Language Models as Zero-Shot Planners: Extracting Actionable Knowledge for Embodied Agents } ,
author = { Huang, Wenlong and Abbeel, Pieter and Pathak, Deepak and Mordatch, Igor } ,
journal = { arXiv preprint arXiv:2201.07207 } ,
year = { 2022 }
}git clone https://github.com/huangwl18/language-planner.git
cd language-planner/
conda create --name language-planner-env python=3.6.13
conda activate language-planner-env
pip install --upgrade pip
pip install -r requirements.txt Siehe demo.ipynb (OR) für einen vollständigen Durchgang unserer Methode. Fühlen Sie sich frei, mit allen Haushaltsaufgaben zu experimentieren, die Sie erledigen (oder alle Aufgaben, die über die Haushaltsdomäne hinausgehen, wenn Sie die erforderlichen Maßnahmen in available_actions.json vorlegen)!
Notiz:
available_actions.json gespeichert. Die Maßnahmen sollten eine Vielzahl von Haushaltsaufgaben unterstützen. Sie können diese Datei jedoch ändern oder ersetzen, wenn Sie an anderen Aktionen oder einer anderen Aufgabendomäne (jenseits der Haushaltsdomäne) interessiert sind.available_examples.json gespeichert. Ändern Sie diese Datei für eine andere Reihe verfügbarer Beispiele.