El equipo de investigación del MIT ha realizado un gran avance recientemente para desarrollar un nuevo modelo de entrenamiento de robots que toma prestado los métodos de entrenamiento de los modelos de idiomas grandes (LLM) y ya no se basa en conjuntos de datos específicos, pero utiliza información masiva para la capacitación. Se espera que esta innovación resuelva las limitaciones encontradas por los métodos tradicionales de capacitación de robots para responder a los cambios ambientales y los nuevos desafíos, sientando una base sólida para la investigación y el desarrollo de cerebros robóticos generales. La importancia de este estudio es que tiene el potencial de cambiar el futuro de la robótica, lo que permite a los robots adaptarse mejor a entornos complejos y cambiantes y realizar una gama más amplia de tareas.
El MIT presentó esta semana un modelo de entrenamiento de robots completamente nuevo que abandonó los métodos de entrenamiento previos que se centraron en conjuntos de datos específicos y, en su lugar, utilizó cantidades masivas de información utilizada al entrenar en modelos de idiomas grandes (LLM).
Los investigadores señalan que el aprendizaje de imitación, es decir, los agentes aprenden al imitar a las personas que realizan tareas, pueden fallar cuando se enfrentan a pequeños desafíos. Estos desafíos pueden incluir diferentes condiciones de iluminación, diferentes entornos ambientales o nuevos obstáculos. En estos casos, el robot no tiene suficientes datos para adaptarse a estos cambios.

El equipo tomó prestados modelos como GPT-4 y adoptó un método de resolución de problemas basado en datos.
"En el campo del lenguaje, los datos son oraciones", dijo Lirui Wang, autor principal del documento. "En el campo de la robótica, dada la diversidad de datos, si desea pre-entrenado de manera similar, necesitamos diferentes arquitecturas".
El equipo introdujo una nueva arquitectura llamada Transformador pre-entrenado heterogéneo (HPT), que integra información de diferentes sensores y diferentes entornos. Los datos se integran en el modelo de entrenamiento utilizando un transformador. Cuanto más grande sea el convertidor, mejor será el resultado de salida.
Luego, el usuario ingresa al diseño del robot, la configuración y las tareas que desea realizar.
"Nuestro sueño es tener un cerebro robótico universal que pueda descargar y usar para su robot sin ninguna capacitación", dijo David Held, profesor asociado de la Universidad Carnegie Mellon, del estudio. "Aunque recién estamos comenzando, continuaremos trabajando duro, con la esperanza de que la escala pueda conducir a avances en estrategias robóticas como modelos de idiomas grandes".
Este estudio fue financiado en parte por el Instituto Toyota. El año pasado en TechCrunch Disrupt, TRI demostró una forma de entrenar a un robot durante la noche. Recientemente, llegó a una asociación de cuencas hidrográficas que combina su investigación de aprendizaje robótico con el hardware de Boston Dynamics.
Esta investigación realizada por el MIT ha traído nuevas posibilidades al campo de la robótica, y vale la pena esperar su desarrollo futuro. Al aprovechar la experiencia exitosa de modelos de idiomas grandes, se espera que el modelo promueva avances más significativos en la tecnología robótica, dando fines al sueño de un cerebro robótico general, para que los robots puedan servir a los humanos de manera más flexible e inteligente.