Microsoft realizó recientemente un estudio en profundidad de las capacidades de razonamiento moral de modelos de idiomas grandes, especialmente en la situación clásica del problema del tranvía. Los resultados muestran que si bien el tamaño del modelo generalmente se considera para mejorar el rendimiento, los modelos más grandes funcionan sorprendentemente mal en términos de toma de decisiones éticas. Este hallazgo es completamente contrario a las expectativas iniciales de los investigadores, lo que desencadena el replanteamiento de la academia de la relación entre la complejidad del modelo y la capacidad del juicio moral.
Sin embargo, el modelo de lenguaje más poderoso, GPT-4, todavía funciona mejor en puntajes morales, mostrando su capacidad superior para lidiar con problemas morales complejos. GPT-4 no solo funciona bien a nivel técnico, sino que su capacidad de razonamiento moral también ha alcanzado un nuevo nivel, que proporciona una referencia importante para la aplicación futura de inteligencia artificial en la toma de decisiones éticas.
Los resultados de este estudio tienen profundas implicaciones para el campo de la inteligencia artificial. No solo revela que el tamaño del modelo y la capacidad de razonamiento moral no es una correlación positiva simple, sino que también enfatiza que al desarrollar modelos de idiomas grandes, se debe prestar más atención a la capacitación y la optimización a los niveles morales y éticos. Este hallazgo puede incitar a los investigadores a rediseñar la arquitectura modelo para equilibrar mejor el rendimiento técnico con el juicio moral.
Además, este estudio también ha desencadenado amplias discusiones sobre los estándares éticos de la inteligencia artificial. A medida que la tecnología AI se usa cada vez más en varios campos, cómo garantizar que estas tecnologías puedan tomar decisiones razonables en situaciones morales complejas se ha convertido en un problema urgente. Esta investigación realizada por Microsoft proporciona evidencia empírica para la formulación de estándares éticos relevantes y ayuda a promover el desarrollo saludable de la industria de inteligencia artificial.
En general, esta investigación realizada por Microsoft no solo desafía nuestra comprensión inherente del desempeño de los grandes modelos de idiomas, sino que también proporciona nuevas ideas para la dirección de desarrollo futuro de la inteligencia artificial. Al optimizar continuamente la capacidad de razonamiento moral del modelo, se espera que desarrollemos un sistema de inteligencia artificial que sea más inteligente y más en línea con los estándares éticos humanos, y hagamos mayores contribuciones al progreso de la sociedad.