À medida que as 2024 eleições presidenciais dos EUA se aproximam, a aplicação e os riscos potenciais de inteligência artificial estão cada vez mais atraindo a atenção. O OpenAI publicou recentemente um post de blog revelando as medidas tomadas por seu modelo de inteligência artificial Chatgpt para manter a justiça durante a eleição e impedir o abuso. O artigo destaca os esforços do ChatGPT em se recusar a gerar imagens de políticos, mantendo a neutralidade política e combatendo a disseminação de informações maliciosas, demonstrando o papel e a complexidade de grandes modelos de linguagem ao lidar com os desafios do mundo real.
À medida que as abordagens do dia das eleições presidenciais dos EUA em 2024, um post publicado pelo OpenAI na sexta -feira observou que o ChatGPT rejeitou mais de 250.000 pedidos para gerar imagens de candidatos políticos um mês antes da eleição. Entre os pedidos, espera-se gerar imagens do presidente eleito Trump, vice-presidente Harris, vice-presidente do candidato Vans, atual presidente Biden e governador de Minnesota Waltz.
Openai disse em um blog que o ChatGPT aplicou várias medidas de segurança para se recusar a gerar imagens de pessoas reais, incluindo políticos. Essas proteções são particularmente importantes durante as eleições e fazem parte dos esforços mais amplos da empresa para impedir que suas ferramentas sejam usadas para propósitos enganosos ou prejudiciais.
Além disso, o ChatGPT trabalhou com a Associação de Secretários Nacionais (NASS) para direcionar questões relacionadas às eleições para o Canivote.org para manter a neutralidade política. Em uma investigação sobre os resultados das eleições, a plataforma aconselhou os usuários a visitar organizações de notícias como a Associated Press e a Reuters. Recentemente, o Openai também teve que proibir uma operação de impacto externo chamada Storm-2035, um grupo que tentou espalhar conteúdo político iraniano influente.
O Openai disse que continuará monitorando o ChatGPT para garantir a precisão e a ética de suas respostas. Este ano, a empresa também elogiou a estrutura política do governo Biden sobre segurança nacional de segurança e inteligência artificial.
Pontos -chave:
O ChatGPT rejeitou mais de 250.000 pedidos para gerar imagens de candidatos políticos um mês antes da eleição.
O OpenAI implementou várias medidas de segurança para impedir a geração de imagens de pessoas reais, especialmente durante as eleições.
O ChatGPT trabalha com a Associação Nacional de Secretários para permanecer politicamente neutra e orientar os usuários para fontes confiáveis de informações eleitorais.
As iniciativas da OpenAI refletem a responsabilidade e os esforços das empresas de IA em responder à manipulação de informações e disseminação de informações falsas durante as eleições. No futuro, como equilibrar melhor a conveniência e os riscos potenciais da tecnologia de inteligência artificial serão um tópico importante que precisa ser explorado continuamente.