À l’approche de l’élection présidentielle de 2024 aux États-Unis, l’impact de la technologie de l’intelligence artificielle dans le domaine politique fait également l’objet d’une attention croissante. L'éditeur de Downcodes a appris qu'OpenAI a récemment publié un article de blog révélant les mesures de sécurité prises par ChatGPT pour empêcher toute utilisation malveillante pendant l'élection. L'article explique comment ChatGPT répond à un grand nombre de demandes visant à générer des images de personnalités politiques, et comment maintenir la neutralité politique et assurer la sécurité des informations.
À l'approche de l'élection présidentielle américaine de 2024, un article de blog publié vendredi par OpenAI indique que ChatGPT a rejeté plus de 250 000 demandes visant à générer des images de candidats politiques au cours du mois précédant l'élection. Les demandes comprenaient des demandes d’images du président élu Trump, du vice-président Harris, du candidat à la vice-présidence Vance, de l’actuel président Joe Biden et du gouverneur du Minnesota Walz.

OpenAI a déclaré dans un article de blog que ChatGPT avait appliqué plusieurs mesures de sécurité pour refuser de générer des images de personnes réelles, y compris des politiciens. Ces protections sont particulièrement importantes lors des élections et font partie des efforts plus larges de l'entreprise pour empêcher que ses outils ne soient utilisés à des fins trompeuses ou nuisibles.
De plus, ChatGPT s'associe à l'Association nationale des secrétaires (NASS) pour adresser les questions liées aux élections à CanIVote.org afin de maintenir la neutralité politique. Lors de demandes de renseignements sur les résultats des élections, la plateforme a recommandé aux utilisateurs de consulter des agences de presse telles que Associated Press et Reuters. Récemment, OpenAI a également dû interdire une opération d’influence externe appelée Storm-2035, qui tentait de diffuser un contenu politique iranien influent.
OpenAI a déclaré qu'il continuerait à surveiller ChatGPT pour garantir l'exactitude et l'éthique de ses réponses. Cette année, la société a également salué le cadre politique de l'administration Biden en matière de sécurité nationale et de technologie d'intelligence artificielle.
L'initiative d'OpenAI reflète la responsabilité des modèles linguistiques à grande échelle dans le maintien de la stabilité sociale et la résistance à la propagation d'informations malveillantes, et fournit également une expérience précieuse à d'autres sociétés d'intelligence artificielle. Cela montre que, même si la technologie de l'intelligence artificielle se développe, elle doit accorder davantage d'attention à ses responsabilités sociales et à ses normes éthiques pour assurer son développement sain.