À medida que se aproximam as eleições presidenciais de 2024 nos Estados Unidos, o impacto da tecnologia de inteligência artificial no campo político também tem recebido cada vez mais atenção. O editor do Downcodes soube que a OpenAI publicou recentemente um artigo no blog divulgando as medidas de segurança tomadas pelo ChatGPT para evitar o uso malicioso durante as eleições. O artigo explica como o ChatGPT responde a um grande número de solicitações para gerar imagens de figuras políticas e como manter a neutralidade política e garantir a segurança da informação.
À medida que as eleições presidenciais dos EUA de 2024 se aproximam, uma postagem de blog publicada pela OpenAI na sexta-feira observou que o ChatGPT rejeitou mais de 250.000 pedidos para gerar imagens de candidatos políticos no mês que antecedeu a eleição. Os pedidos incluíam pedidos de imagens do presidente eleito Trump, do vice-presidente Harris, do candidato a vice-presidente Vance, do atual presidente Joe Biden e do governador de Minnesota, Walz.

A OpenAI disse em uma postagem no blog que o ChatGPT aplicou diversas medidas de segurança para se recusar a gerar imagens de pessoas reais, incluindo políticos. Estas proteções são especialmente importantes durante as eleições e fazem parte dos esforços mais amplos da empresa para evitar que as suas ferramentas sejam utilizadas para fins enganosos ou prejudiciais.
Além disso, o ChatGPT está fazendo parceria com a Associação Nacional de Secretários (NASS) para direcionar questões relacionadas às eleições para CanIVote.org para manter a neutralidade política. Nas consultas sobre os resultados eleitorais, a plataforma recomendou que os usuários visitassem organizações de notícias como The Associated Press e Reuters. Recentemente, a OpenAI também teve que proibir uma operação de influência externa chamada Storm-2035, que tentava espalhar conteúdo político iraniano influente.
A OpenAI disse que continuará monitorando o ChatGPT para garantir a precisão e a ética de suas respostas. Este ano, a empresa também elogiou a estrutura política do governo Biden sobre segurança nacional e tecnologia de inteligência artificial.
A iniciativa da OpenAI reflete a responsabilidade dos modelos de linguagem em grande escala na manutenção da estabilidade social e na resistência à propagação de informações maliciosas, e também fornece uma experiência valiosa para outras empresas de inteligência artificial. Isto mostra que, embora a tecnologia de inteligência artificial esteja a desenvolver-se, é necessário prestar mais atenção às suas responsabilidades sociais e normas éticas para garantir o seu desenvolvimento saudável.