Während die Präsidentschaftswahl 2024 in den Vereinigten Staaten näher rückt, wird auch den Auswirkungen der Technologie der künstlichen Intelligenz im politischen Bereich zunehmend Aufmerksamkeit geschenkt. Der Herausgeber von Downcodes erfuhr, dass OpenAI kürzlich einen Blog-Artikel veröffentlicht hat, in dem die von ChatGPT ergriffenen Sicherheitsmaßnahmen offengelegt werden, um böswilligen Missbrauch während der Wahl zu verhindern. In dem Artikel wird erläutert, wie ChatGPT auf eine große Anzahl von Anfragen reagiert, Bilder von politischen Persönlichkeiten zu erstellen, und wie die politische Neutralität gewahrt und die Informationssicherheit gewährleistet werden kann.
Während die US-Präsidentschaftswahl 2024 näher rückt, heißt es in einem am Freitag von OpenAI veröffentlichten Blogbeitrag, dass ChatGPT im Monat vor der Wahl mehr als 250.000 Anfragen zur Generierung von Bildern politischer Kandidaten abgelehnt habe. Zu den Anfragen gehörten Anfragen nach Bildern des designierten Präsidenten Trump, des Vizepräsidenten Harris, des Vizepräsidentschaftskandidaten Vance, des derzeitigen Präsidenten Joe Biden und des Gouverneurs von Minnesota, Walz.

OpenAI sagte in einem Blogbeitrag, dass ChatGPT mehrere Sicherheitsmaßnahmen angewendet habe, um die Generierung von Bildern von echten Menschen, einschließlich Politikern, zu verhindern. Diese Schutzmaßnahmen sind besonders wichtig bei Wahlen und Teil der umfassenderen Bemühungen des Unternehmens, zu verhindern, dass seine Tools für irreführende oder schädliche Zwecke verwendet werden.
Darüber hinaus arbeitet ChatGPT mit der National Association of Secretaries (NASS) zusammen, um wahlbezogene Fragen an CanIVote.org zu richten und so die politische Neutralität zu wahren. Bei Anfragen zu den Wahlergebnissen empfahl die Plattform den Nutzern, Nachrichtenorganisationen wie The Associated Press und Reuters zu besuchen. Kürzlich musste OpenAI auch eine externe Einflussoperation namens Storm-2035 verbieten, die versuchte, einflussreiche iranische politische Inhalte zu verbreiten.
OpenAI sagte, es werde ChatGPT weiterhin überwachen, um die Genauigkeit und Ethik seiner Antworten sicherzustellen. In diesem Jahr lobte das Unternehmen auch den politischen Rahmen der Biden-Regierung zur nationalen Sicherheit und zur Technologie der künstlichen Intelligenz.
Die Initiative von OpenAI spiegelt die Verantwortung großer Sprachmodelle für die Aufrechterhaltung der sozialen Stabilität und den Widerstand gegen die Verbreitung bösartiger Informationen wider und bietet auch anderen Unternehmen der künstlichen Intelligenz wertvolle Erfahrungen. Dies zeigt, dass die Technologie der künstlichen Intelligenz sich zwar weiterentwickelt, ihrer sozialen Verantwortung und ihren ethischen Normen jedoch mehr Aufmerksamkeit schenken muss, um eine gesunde Entwicklung sicherzustellen.