El Instituto de Investigación de Inteligencia Artificial (MIRI) emitió un comunicado pidiendo al mundo que deje de desarrollar sistemas de inteligencia artificial que sean más inteligentes que los humanos, creyendo que sus riesgos potenciales pueden conducir a la desaparición de la humanidad. Este llamado ha sido apoyado por algunos líderes de la industria tecnológica, pero también ha causado controversia. MIRI enfatizó que la velocidad actual del desarrollo de la IA es demasiado rápida y que es difícil para la supervisión legislativa mantener el ritmo. Por lo tanto, se necesitan medidas más proactivas, como la instalación obligatoria de "interruptores de apagado", para hacer frente a los posibles comportamientos maliciosos de la IA. riesgos impredecibles. El instituto cree que el desarrollo de sistemas de IA más avanzados sólo puede continuar si se garantiza que la IA sea segura y controlable.
El grupo de investigación sin fines de lucro Machine Intelligence Research Institute (MIRI) ha pedido al mundo que detenga la investigación con modelos básicos o "de vanguardia", por temor a que sus problemas de seguridad puedan amenazar la supervivencia humana. El modelo básico es un sistema de inteligencia artificial que se puede aplicar a múltiples modos. MIRI cree que el modelo subyacente será más inteligente que los humanos y tiene el potencial de "destruir a la humanidad".

En el ámbito tecnológico, algunas figuras destacadas, entre ellas Elon Musk y Steve Wozniak, han pedido una moratoria sobre el desarrollo de modelos básicos más potentes que el GPT-4 de OpenAI. Pero MIRI quiere ir un paso más allá, con una estrategia de comunicaciones recientemente revelada que exige un cese total de los intentos de construir sistemas que sean más inteligentes que los humanos.
El grupo dijo: "Los responsables de la formulación de políticas abordan los problemas principalmente mediante compromisos: ceden en algún lugar para ganar algo en otro. Tememos que gran parte de la legislación necesaria para preservar la supervivencia humana pase por el proceso político habitual y se deshilache hasta convertirse en un compromiso ineficaz. Mientras tanto, el tiempo corre y los laboratorios de IA continúan invirtiendo en el desarrollo y capacitación de sistemas más robustos”.
MIRI quiere que el gobierno obligue a las empresas que desarrollan modelos subyacentes a instalar "interruptores de apagado" que puedan apagar los sistemas de inteligencia artificial si desarrollan tendencias maliciosas o de "riesgo x".
La organización sin fines de lucro dijo que sigue comprometida con la idea de que los sistemas inteligentes sean más inteligentes que los humanos, pero quiere construirlos "hasta que sepamos cómo construir este tipo de IA de manera segura".
MIRI fue fundada en 2000 por Eliezer Yudkowsky, con partidarios como Peter Thiel y Vitalik Buterin, cocreador de la criptomoneda Ethereum. El Future of Life Institute es también uno de los principales contribuyentes a MIRI.
Bradley Shimmin, analista principal de la firma de investigación de análisis de datos e inteligencia artificial Omdia, dijo que a MIRI le resultará difícil convencer a los legisladores debido a la falta de investigaciones de respaldo. "El mercado ha considerado estas cuestiones y ha llegado a la conclusión de que el estado del arte actual y futuro de los modelos GenAI basados en convertidores no puede hacer muy poco excepto crear representaciones útiles de temas complejos", dijo Shimmin identifica correctamente la brecha de conocimiento entre ellos. construir y regular la inteligencia artificial.
Reflejos:
- El grupo de investigación sin fines de lucro Machine Intelligence Research Institute (MIRI) pidió al mundo que detenga la investigación con modelos básicos o "de vanguardia", por temor a que sus problemas de seguridad puedan amenazar la supervivencia humana.
- MIRI quiere que el gobierno obligue a las empresas que desarrollan modelos subyacentes a instalar "interruptores de apagado" que puedan apagar los sistemas de IA si desarrollan tendencias maliciosas o de "riesgo x".
- Bradley Shimmin, analista principal de la firma de investigación de análisis de datos e inteligencia artificial Omdia, dijo que a MIRI le resultará difícil convencer a los legisladores debido a la falta de investigaciones de respaldo.
El llamado de MIRI ha desencadenado extensos debates sobre la seguridad y la velocidad de desarrollo de la IA. Aunque sus puntos de vista son extremos, también resalta las preocupaciones sobre los riesgos potenciales de la inteligencia artificial y merece una seria reflexión y consideración por parte de la industria y el gobierno. En el futuro, una cuestión importante será cómo equilibrar el desarrollo de la inteligencia artificial y los riesgos de seguridad.