A medida que se acerca la elección presidencial de los Estados Unidos en 2024, la aplicación y los riesgos potenciales de inteligencia artificial están atrayendo cada vez más atención. Operai publicó recientemente una publicación de blog que revela las medidas tomadas por su modelo de inteligencia artificial ChatGPT para mantener la equidad durante las elecciones y prevenir el abuso. El artículo destaca los esfuerzos de Chatgpt para negarse a generar imágenes de políticos, mantener la neutralidad política y combatir la difusión de información maliciosa, demostrar el papel y la complejidad de los modelos de idiomas grandes para tratar los desafíos del mundo real.
A medida que se acerca el Día de las elecciones Presidenciales de 2024, una publicación de blog publicada por OpenAI señaló el viernes que ChatGPT rechazó más de 250,000 solicitudes para generar imágenes de candidatos políticos un mes antes de las elecciones. Entre las solicitudes se espera generar imágenes del presidente electo Trump, el vicepresidente Harris, el vicepresidente candidato de Vans, el actual presidente Biden y el gobernador de Minnesota Waltz.
Operai dijo en un blog que ChatGPT ha aplicado varias medidas de seguridad para negarse a generar imágenes de personas reales, incluidos los políticos. Estas protecciones son particularmente importantes durante las elecciones y son parte de los esfuerzos más amplios de la compañía para evitar que sus herramientas se utilicen con fines engañosos o dañinos.
Además, ChatGPT ha trabajado con la Asociación de Secretarios Nacionales (NASS) para dirigir cuestiones relacionadas con las elecciones a CanIvote.org para mantener la neutralidad política. En una consulta sobre los resultados electorales, la plataforma aconsejó a los usuarios que visiten organizaciones de noticias como Associated Press y Reuters. Recientemente, Operai también tuvo que prohibir una operación de impacto externo llamado Storm-2035, un grupo que intentó difundir el influyente contenido político iraní.
Operai dijo que continuará monitoreando ChatGPT para garantizar la precisión y la ética de sus respuestas. Este año, la compañía también elogió el marco de políticas de la administración Biden sobre la seguridad nacional y la tecnología de inteligencia artificial.
Puntos clave:
ChatGPT rechazó más de 250,000 solicitudes para generar imágenes de candidatos políticos un mes antes de las elecciones.
Operai ha implementado varias medidas de seguridad para evitar la generación de imágenes de personas reales, especialmente durante las elecciones.
ChatGPT trabaja con la Asociación Nacional de Secretarios para permanecer políticamente neutral y guiar a los usuarios a fuentes confiables de información electoral.
Las iniciativas de OpenAI reflejan la responsabilidad y los esfuerzos de las compañías de IA en responder a la manipulación de la información y la difusión de información falsa durante las elecciones. En el futuro, cómo equilibrar mejor la conveniencia y los riesgos potenciales de la tecnología de inteligencia artificial será un tema importante que debe explorarse continuamente.