Wenlong Huang 1 , Pieter Abbeel 1 , Deepak Pathak * 2 , Igor Mordatch * 3 (* Adsence égale)
1 Université de Californie, Berkeley, 2 Carnegie Mellon University, 3 Google Brain

Il s'agit du code de démonstration officiel de nos modèles de langue en tant que document de planificateurs zéro. Le code montre comment les grands modèles de langue, tels que GPT-3 et Codex, peuvent générer des plans d'action pour des activités humaines complexes (par exemple, «préparer le petit déjeuner»), même sans autre formation. Le code peut être utilisé avec tous les modèles de langue disponibles à partir de l'API OpenAI et des transformateurs HuggingFace avec une interface commune.
Si vous trouvez ce travail utile dans vos recherches, veuillez citer en utilisant le bibtex suivant:
@article { huang2022language ,
title = { Language Models as Zero-Shot Planners: Extracting Actionable Knowledge for Embodied Agents } ,
author = { Huang, Wenlong and Abbeel, Pieter and Pathak, Deepak and Mordatch, Igor } ,
journal = { arXiv preprint arXiv:2201.07207 } ,
year = { 2022 }
}git clone https://github.com/huangwl18/language-planner.git
cd language-planner/
conda create --name language-planner-env python=3.6.13
conda activate language-planner-env
pip install --upgrade pip
pip install -r requirements.txt Voir demo.ipynb (ou) pour une visite complète de notre méthode. N'hésitez pas à expérimenter toutes les tâches ménagères que vous proposez (ou toutes les tâches au-delà du domaine du ménage si vous fournissez les actions nécessaires dans available_actions.json .
Note:
available_actions.json . Les actions devraient soutenir une grande variété de tâches ménagères. Cependant, vous pouvez modifier ou remplacer ce fichier si vous êtes intéressé par un ensemble différent d'actions ou un domaine différent de tâches (au-delà du domaine du ménage).available_examples.json . N'hésitez pas à modifier ce fichier pour un ensemble différent d'exemples disponibles.