Выпуск Google Gemini, самой мощной системы искусственного интеллекта Google, привлек большое внимание. Однако функция создания портретов Gemini недавно выявила проблемы предвзятости, вызвавшие широкое беспокойство и споры. Этот инцидент не только выявил потенциальные риски предвзятости данных обучения модели ИИ, но и подчеркнул важность этики при разработке технологии ИИ. Google признал проблему и приостановил работу этой функции, обещая улучшения. Этот инцидент забил тревогу в индустрии искусственного интеллекта, побудив разработчиков уделять больше внимания честности и надежности моделей.
Google Gemini — крупнейшая, самая мощная и самая универсальная система искусственного интеллекта Google, но проблемы с ее функцией создания портретов спровоцировали кризис репутации. Эксперт по искусственному интеллекту Ян ЛеКун сказал, что ожидал этого, отметив, что смещение обучающих данных повлияет на производительность модели. Проблема портретной предвзятости, вызванная Gemini, вызвала бурные дискуссии. Google признал и приостановил эту функцию, заявив, что она улучшит качество обслуживания. Этот инцидент вызвал повышенные требования со стороны экспертов и пользователей искусственного интеллекта к контенту, созданному с помощью моделей.
Этот инцидент с Google Gemini напоминает нам, что при разработке технологий искусственного интеллекта необходимо учитывать технологический прогресс и социальную ответственность, чтобы избежать негативного воздействия технических предубеждений на общество. В будущем при обучении и применении моделей ИИ необходимо будет уделять больше внимания разнообразию, справедливости и интерпретируемости данных, чтобы гарантировать, что технология ИИ принесет пользу человечеству.