A medida que se acercan las elecciones presidenciales de 2024 en Estados Unidos, el impacto de la tecnología de inteligencia artificial en el campo político también ha recibido cada vez más atención. El editor de Downcodes se enteró de que OpenAI publicó recientemente un artículo de blog que revela las medidas de seguridad tomadas por ChatGPT para evitar el uso malicioso durante las elecciones. El artículo detalla cómo ChatGPT responde a una gran cantidad de solicitudes para generar imágenes de figuras políticas y cómo mantener la neutralidad política y garantizar la seguridad de la información.
A medida que se acercan las elecciones presidenciales de Estados Unidos de 2024, una publicación de blog publicada por OpenAI el viernes señaló que ChatGPT rechazó más de 250.000 solicitudes para generar imágenes de candidatos políticos en el mes previo a las elecciones. Las solicitudes incluían solicitudes de imágenes del presidente electo Trump, el vicepresidente Harris, el candidato a vicepresidente Vance, el actual presidente Joe Biden y el gobernador de Minnesota Walz.

OpenAI dijo en una publicación de blog que ChatGPT ha aplicado múltiples medidas de seguridad para negarse a generar imágenes de personas reales, incluidos políticos. Estas protecciones son especialmente importantes durante las elecciones y son parte de los esfuerzos más amplios de la empresa para evitar que sus herramientas se utilicen con fines engañosos o dañinos.
Además, ChatGPT se está asociando con la Asociación Nacional de Secretarios (NASS) para dirigir preguntas relacionadas con las elecciones a CanIVote.org para mantener la neutralidad política. En consultas sobre los resultados electorales, la plataforma recomendó a los usuarios visitar organizaciones de noticias como The Associated Press y Reuters. Recientemente, OpenAI también tuvo que prohibir una operación de influencia externa llamada Storm-2035, que intentaba difundir contenido político iraní influyente.
OpenAI dijo que continuará monitoreando ChatGPT para garantizar la precisión y ética de sus respuestas. Este año, la compañía también elogió el marco de políticas de la administración Biden sobre seguridad nacional y tecnología de inteligencia artificial.
La iniciativa de OpenAI refleja la responsabilidad de los modelos lingüísticos a gran escala de mantener la estabilidad social y resistir la difusión de información maliciosa, y también proporciona una experiencia valiosa para otras empresas de inteligencia artificial. Esto muestra que, si bien la tecnología de inteligencia artificial se desarrolla, es necesario prestar más atención a sus responsabilidades sociales y normas éticas para garantizar su desarrollo saludable.