Un environnement de gymnase pour simuler la planification multi-robot. Cet environnement est une mise en œuvre de la tâche pour planifier plusieurs robots pour atteindre un emplacement cible, évitant les obstacles sur leur chemin. L'implémentation de la logique et des graphiques de l'environnement était basé sur ce code écrit par Andrew Davison.
Cet environnement simule les mouvements de plusieurs robots dans un environnement avec des barrières et une cible. Les robots sont contrôlés par les actions données par un agent. Les observations reçues par l'agent comprennent des informations sur la position, la vitesse et l'orientation de chaque robot, la position future de la cible et la position future des obstacles. Le but de l'agent est de naviguer dans les robots vers la cible tout en évitant les collisions avec les obstacles.

Ce package n'est pas encore sur PYPI, donc une installation locale est requise:
git clone https://github.com/riiswa/planning-multi-robot-gym
cd planning-multi-robot-gym
pip install -e .
import planning_multi_robot_gym
# There are many adjustable parameters for this environment, please refer to the brief documentation in the code.
env = planning_multi_robot_gym . make ( "PlanningMultiRobot-v0" , render_mode = "human" , n_robots = 5 , n_barriers = 80 )
observation , info = env . reset ( seed = 42 )
for _ in range ( 1000 ):
action = ... # Your policy
observation , reward , terminated , truncated , info = env . step ( action )
env . render ()
if terminated or truncated :
observation , info = env . reset ()
env . close ()Voici une liste non exhaustive de tâches pour les personnes qui seraient intéressées à contribuer à ce référentiel: