Wenlong Huang 1 , Pieter Abbeel 1 , Deepak Pathak* 2 , Igor Mordatch* 3 (* Asesoramiento igual)
1 Universidad de California, Berkeley, 2 Carnegie Mellon University, 3 Google Brain

Este es el código de demostración oficial para nuestros modelos de idiomas como documento de planificadores de cero disparos. El código demuestra cómo los modelos de idiomas grandes, como GPT-3 y Codex, pueden generar planes de acción para actividades humanas complejas (por ejemplo, "preparar el desayuno"), incluso sin ninguna capacitación adicional. El código se puede utilizar con cualquier modelo de idioma disponible de la API de OpenAI y los transformadores de Huggingface con una interfaz común.
Si encuentra este trabajo útil en su investigación, cite usando el siguiente bibtex:
@article { huang2022language ,
title = { Language Models as Zero-Shot Planners: Extracting Actionable Knowledge for Embodied Agents } ,
author = { Huang, Wenlong and Abbeel, Pieter and Pathak, Deepak and Mordatch, Igor } ,
journal = { arXiv preprint arXiv:2201.07207 } ,
year = { 2022 }
}git clone https://github.com/huangwl18/language-planner.git
cd language-planner/
conda create --name language-planner-env python=3.6.13
conda activate language-planner-env
pip install --upgrade pip
pip install -r requirements.txt Consulte demo.ipynb (OR) para un recorrido completo de nuestro método. ¡Siéntase libre de experimentar con cualquier tarea doméstica que se le ocurra (o cualquier tarea más allá del dominio del hogar si proporciona las acciones necesarias en available_actions.json )!
Nota:
available_actions.json . Las acciones deben respaldar una gran variedad de tareas domésticas. Sin embargo, puede modificar o reemplazar este archivo si está interesado en un conjunto diferente de acciones o un dominio diferente de tareas (más allá del dominio del hogar).available_examples.json . Siéntase libre de cambiar este archivo para un conjunto diferente de ejemplos disponibles.