Menjelang pemilihan presiden Amerika Serikat tahun 2024, dampak teknologi kecerdasan buatan di bidang politik juga semakin mendapat perhatian. Editor Downcodes mengetahui bahwa OpenAI baru-baru ini menerbitkan artikel blog yang mengungkapkan langkah-langkah keamanan yang diambil oleh ChatGPT untuk mencegah penggunaan jahat selama pemilu. Artikel ini menguraikan bagaimana ChatGPT menanggapi sejumlah besar permintaan untuk menghasilkan gambar tokoh politik, dan bagaimana menjaga netralitas politik dan menjamin keamanan informasi.
Menjelang pemilihan presiden AS tahun 2024, sebuah postingan blog yang diterbitkan oleh OpenAI pada hari Jumat mencatat bahwa ChatGPT menolak lebih dari 250.000 permintaan untuk menghasilkan gambar kandidat politik pada bulan menjelang pemilu. Permintaan tersebut termasuk permintaan gambar Presiden terpilih Trump, Wakil Presiden Harris, calon Wakil Presiden Vance, Presiden saat ini Joe Biden, dan Gubernur Minnesota Walz.

OpenAI mengatakan dalam postingan blognya bahwa ChatGPT telah menerapkan berbagai langkah keamanan untuk menolak menghasilkan gambar orang sungguhan, termasuk politisi. Perlindungan ini sangat penting selama pemilu dan merupakan bagian dari upaya perusahaan yang lebih luas untuk mencegah alat-alatnya digunakan untuk tujuan yang menyesatkan atau merugikan.
Selain itu, ChatGPT bermitra dengan National Association of Secretaries (NASS) untuk mengarahkan pertanyaan terkait pemilu ke CanIVote.org guna menjaga netralitas politik. Jika ada pertanyaan tentang hasil pemilu, platform tersebut merekomendasikan pengguna untuk mengunjungi organisasi berita seperti The Associated Press dan Reuters. Baru-baru ini, OpenAI juga harus melarang operasi pengaruh eksternal yang disebut Storm-2035, yang mencoba menyebarkan konten politik berpengaruh di Iran.
OpenAI mengatakan akan terus memantau ChatGPT untuk memastikan keakuratan dan etika tanggapannya. Tahun ini, perusahaan juga memuji kerangka kebijakan pemerintahan Biden mengenai keamanan nasional dan teknologi kecerdasan buatan.
Inisiatif OpenAI mencerminkan tanggung jawab model bahasa berskala besar dalam menjaga stabilitas sosial dan melawan penyebaran informasi berbahaya, serta memberikan pengalaman berharga bagi perusahaan kecerdasan buatan lainnya. Hal ini menunjukkan bahwa seiring berkembangnya teknologi kecerdasan buatan, teknologi tersebut perlu lebih memperhatikan tanggung jawab sosial dan norma etika untuk memastikan perkembangannya yang sehat.