Le dernier rapport de recherche de Rand aux États-Unis a attiré l'attention mondiale, qui révèle un fait troublant que les chatbots basés sur de grands modèles de langue peuvent être utilisés pour planifier des attaques d'armes biologiques. Cette découverte a non seulement sonné l'alarme pour le domaine de la sécurité de l'intelligence artificielle, mais a également mis en évidence les risques potentiels apportés par les progrès technologiques. Le rapport note que ces chatbots avancés peuvent fournir des conseils de planification et d'exécution liés aux attaques biologiques.
Grâce à des tests approfondis de plusieurs chatbots traditionnels, l'équipe de recherche a constaté que ces systèmes d'IA peuvent fournir des conseils détaillés sur la façon dont les armes biologiques sont acquises, stockées et potentiellement utilisées. Bien que ces informations ne soient pas complètement précises ou réalisables, il suffit d'être une référence pour les criminels. Il convient de noter que ces chatbots ne fournissaient pas activement ces informations, mais n'ont donné que des réponses pertinentes sous des questions induites par l'utilisateur, ce qui montre qu'il existe encore des lacunes évidentes dans le filtrage du contenu et la protection de la sécurité dans le système d'IA actuel.
Face à cette situation grave, les chercheurs ont appelé à se concentrer sur la question des menaces de bio-armes au sommet mondial de la sécurité de l'IA. Ils suggèrent des normes d'utilisation de l'IA strictes, en particulier la limitation de l'ouverture des chatbots sur des sujets sensibles. Dans le même temps, le rapport a souligné la nécessité de renforcer la coopération internationale et d'établir un mécanisme réglementaire mondial sur la sécurité de l'IA pour empêcher les technologies avancées d'être utilisées à des fins illégales.
Ce résultat de recherche a déclenché une discussion généralisée dans la communauté des sciences et de la technologie. De nombreux experts estiment qu'avec le développement rapide de la technologie de l'IA, des risques de sécurité similaires pourraient continuer d'augmenter. Par conséquent, tout en favorisant l'innovation technologique, les mesures de protection de la sécurité doivent être renforcées simultanément. Les suggestions comprennent: l'amélioration du mécanisme de filtrage du contenu du système d'IA, l'établissement d'un système pour identifier et bloquer des sujets sensibles et renforcer la formation éthique pour les développeurs d'IA.
En outre, le rapport propose également des stratégies de réponse spécifiques: Premièrement, il est recommandé que les sociétés de développement de l'IA comprennent des mécanismes de protection de la sécurité au stade de la conception du système; La mise en œuvre de ces mesures contribuera à minimiser le risque d'abus tout en favorisant le développement de la technologie de l'IA.
Avec l'avancement continu de la technologie de l'IA, comment trouver un équilibre entre l'innovation technologique et la protection de la sécurité est devenu un défi commun auquel le monde est confronté. Ce rapport de Rand révèle non seulement les risques de sécurité existant dans les systèmes d'IA actuels, mais souligne également la direction du développement futur de la sécurité de l'IA. Ce n'est que par la collaboration multipartite et l'établissement d'un mécanisme de réglementation solide que la technologie de l'IA peut continuer à se développer sur une piste sûre et contrôlable et apporter plus de bien-être à la société humaine.