По мере приближения президентских выборов 2024 года в США все большее внимание уделяется влиянию технологий искусственного интеллекта в политической сфере. Редактор Downcodes узнал, что OpenAI недавно опубликовала в блоге статью, в которой раскрываются меры безопасности, принятые ChatGPT для предотвращения злонамеренного использования во время выборов. В статье подробно рассказывается о том, как ChatGPT реагирует на большое количество запросов на создание изображений политических деятелей, а также о том, как сохранять политический нейтралитет и обеспечивать информационную безопасность.
По мере приближения президентских выборов в США 2024 года в блоге OpenAI, опубликованном в пятницу, отмечается, что ChatGPT отклонил более 250 000 запросов на создание изображений политических кандидатов за месяц, предшествовавший выборам. Запросы включали запросы на предоставление изображений избранного президента Трампа, вице-президента Харриса, кандидата в вице-президенты Вэнса, действующего президента Джо Байдена и губернатора Миннесоты Уолца.

OpenAI сообщила в своем блоге, что ChatGPT применил несколько мер безопасности, чтобы отказаться от создания изображений реальных людей, включая политиков. Эти меры защиты особенно важны во время выборов и являются частью более широких усилий компании по предотвращению использования ее инструментов в вводящих в заблуждение или вредоносных целях.
Кроме того, ChatGPT сотрудничает с Национальной ассоциацией секретарей (NASS), чтобы направлять вопросы, связанные с выборами, на CanIVote.org, чтобы сохранить политический нейтралитет. Чтобы узнать о результатах выборов, платформа рекомендовала пользователям посещать новостные организации, такие как Associated Press и Reuters. Недавно OpenAI также пришлось запретить операцию внешнего влияния под названием «Шторм-2035», которая пыталась распространять влиятельный иранский политический контент.
OpenAI заявила, что продолжит следить за ChatGPT, чтобы гарантировать точность и этику своих ответов. В этом году компания также высоко оценила политику администрации Байдена в области национальной безопасности и технологий искусственного интеллекта.
Инициатива OpenAI отражает ответственность крупномасштабных языковых моделей за поддержание социальной стабильности и противодействие распространению вредоносной информации, а также предоставляет ценный опыт другим компаниям, занимающимся искусственным интеллектом. Это показывает, что, хотя технология искусственного интеллекта развивается, ей необходимо уделять больше внимания своей социальной ответственности и этическим нормам, чтобы обеспечить ее здоровое развитие.