Le Machine Intelligence Research Institute (MIRI) a publié une déclaration appelant le monde à cesser de développer des systèmes d’IA plus intelligents que les humains, estimant que les risques potentiels pourraient conduire à la disparition de l’humanité. Cet appel a été soutenu par certains dirigeants de l’industrie technologique, mais il a également suscité une controverse. MIRI a souligné que la vitesse actuelle de développement de l'IA est trop rapide et qu'il est difficile pour la supervision législative de suivre le rythme. Par conséquent, des mesures plus proactives, telles que l'installation obligatoire d'« interrupteurs d'arrêt », sont nécessaires pour faire face aux comportements malveillants potentiels de l'IA. des risques imprévisibles. L’institut estime que le développement de systèmes d’IA plus avancés ne peut se poursuivre que si l’on garantit que l’IA est sûre et contrôlable.
Le groupe de recherche à but non lucratif Machine Intelligence Research Institute (MIRI) a appelé le monde entier à arrêter la recherche sur les modèles de base ou « de pointe », craignant que ses problèmes de sécurité ne menacent la survie humaine. Le modèle de base est un système d’intelligence artificielle pouvant être appliqué à plusieurs modes. MIRI estime que le modèle sous-jacent sera plus intelligent que les humains et a le potentiel de « détruire l’humanité ».

Dans le domaine technologique, certaines personnalités, dont Elon Musk et Steve Wozniak, ont appelé à un moratoire sur le développement de modèles de base plus puissants que le GPT-4 d'OpenAI. Mais MIRI veut aller plus loin, avec une stratégie de communication récemment dévoilée appelant à l'arrêt complet des tentatives de construction de systèmes plus intelligents que les humains.
Le groupe a déclaré : « Les décideurs politiques traitent les problèmes principalement par le biais de compromis : ils cèdent quelque part pour gagner quelque chose chez un autre. Nous craignons qu'une grande partie de la législation nécessaire pour préserver la survie humaine passe par le processus politique habituel et s'effiloche en un compromis inefficace. Pendant ce temps, le temps presse pour que les laboratoires d’IA continuent d’investir dans le développement et la formation de systèmes plus robustes.
MIRI souhaite que le gouvernement oblige les entreprises qui développent des modèles sous-jacents à installer des « killswitches » capables d'arrêter les systèmes d'IA s'ils développent des tendances malveillantes ou à « risque X ».
L'organisation à but non lucratif a déclaré qu'elle restait attachée à l'idée que les systèmes intelligents soient plus intelligents que les humains, mais souhaite les construire "jusqu'à ce que nous sachions comment construire ce type d'IA en toute sécurité".
MIRI a été fondée en 2000 par Eliezer Yudkowsky, avec parmi ses partisans Peter Thiel et Vitalik Buterin, co-créateur de la crypto-monnaie Ethereum. Le Future of Life Institute est également l’un des principaux contributeurs de MIRI.
Bradley Shimmin, analyste principal chez Omdia, société de recherche en IA et analyse de données, a déclaré que MIRI aura du mal à convaincre les législateurs en raison du manque de recherches à l'appui. "Le marché a examiné ces questions et a conclu que l'état de l'art actuel et proche des modèles GenAI basés sur des convertisseurs ne peut pas faire grand-chose, à part créer des représentations utiles de sujets complexes", a déclaré Shimmin, qui identifie correctement le fossé des connaissances entre ceux-ci. construire et réguler l’intelligence artificielle.
Points forts:
- Le groupe de recherche à but non lucratif Machine Intelligence Research Institute (MIRI) a appelé le monde entier à arrêter la recherche sur les modèles de base ou "de pointe", craignant que ses problèmes de sécurité ne menacent la survie humaine.
- MIRI souhaite que le gouvernement oblige les entreprises développant des modèles sous-jacents à installer des « killswitches » qui peuvent arrêter les systèmes d'IA s'ils développent des tendances malveillantes ou à « risque X ».
- Bradley Shimmin, analyste principal chez Omdia, société de recherche en IA et analyse de données, a déclaré que MIRI aura du mal à convaincre les législateurs en raison du manque de recherches à l'appui.
L'appel du MIRI a déclenché des discussions approfondies sur la sécurité et la vitesse de développement de l'IA. Bien que ses points de vue soient extrêmes, il met également en lumière les inquiétudes concernant les risques potentiels de l'intelligence artificielle et mérite une réflexion et un examen sérieux de la part de l'industrie et du gouvernement. À l’avenir, la question de savoir comment équilibrer le développement de l’intelligence artificielle et les risques de sécurité sera une question importante.