Alors que les approches électorales de la présidentielle américaine de 2024, l'application et les risques potentiels de l'intelligence artificielle attirent de plus en plus l'attention. OpenAI a récemment publié un article de blog révélant les mesures prises par son modèle d'intelligence artificielle Chatgpt pour maintenir l'équité pendant les élections et prévenir les abus. L'article met en évidence les efforts de Chatgpt pour refuser de générer des images de politiciens, le maintien de la neutralité politique et la lutte contre la diffusion d'informations malveillantes, la démonstration du rôle et de la complexité des modèles de gros langues dans le traitement des défis du monde réel.
À l'approche du jour de l'élection présidentielle des États-Unis en 2024, un article de blog publié par OpenAI vendredi a noté que Chatgpt avait rejeté plus de 250 000 demandes pour générer des images de candidats politiques un mois avant les élections. Parmi les demandes, espéré générer des images du président élu Trump, du vice-président Harris, du vice-président candidat Vans, de l'actuel président Biden et du gouverneur du Minnesota Waltz.
Openai a déclaré dans un blog que Chatgpt avait appliqué plusieurs mesures de sécurité pour refuser de générer des images de vraies personnes, y compris des politiciens. Ces protections sont particulièrement importantes lors des élections et font partie des efforts plus larges de l'entreprise pour empêcher que ses outils soient utilisés à des fins trompeuses ou nuisibles.
En outre, Chatgpt a travaillé avec l'Association des secrétaires nationaux (NASS) pour diriger les problèmes liés aux élections à canivote.org pour maintenir la neutralité politique. Dans une enquête sur les résultats des élections, la plate-forme a conseillé aux utilisateurs de visiter des organisations de presse telles que l'Associated Press et Reuters. Récemment, OpenAI a également dû interdire une opération d'impact externe appelé Storm-2035, un groupe qui a tenté de diffuser un contenu politique iranien influent.
Openai a déclaré qu'il continuerait de surveiller le chatppt pour assurer la précision et l'éthique de ses réponses. Cette année, la société a également salué le cadre politique de l'administration Biden sur la sécurité nationale et la technologie de renseignement artificiel.
Points clés:
Chatgpt a rejeté plus de 250 000 demandes pour générer des images de candidats politiques un mois avant les élections.
OpenAI a mis en œuvre plusieurs mesures de sécurité pour empêcher la génération d'images de personnes réelles, en particulier lors des élections.
Chatgpt travaille avec la National Secrétaires Association pour rester politiquement neutre et guider les utilisateurs vers des sources fiables d'informations électorales.
Les initiatives d'OpenAI reflètent la responsabilité et les efforts des sociétés de l'IA pour répondre à la manipulation des informations et à la diffusion de fausses informations lors des élections. À l'avenir, comment mieux équilibrer la commodité et les risques potentiels de la technologie de l'intelligence artificielle seront un sujet important qui doit être exploré en permanence.