Недавно редактор Downcodes узнал, что Анна Маканджу, вице-президент по глобальным вопросам OpenAI, поделилась своими взглядами на предвзятость искусственного интеллекта на «Саммите будущего» Организации Объединенных Наций, сосредоточив внимание на модели вывода OpenAI o1. Она считает, что модель может значительно уменьшить предвзятость в системах ИИ, и объясняет ее механизм самоидентификации и коррекции предвзятых ответов. Однако фактические результаты испытаний отличались от ожиданий, что заставило отрасль задуматься о реальной производительности моделей ИИ.
Недавно Анна Маканджу, вице-президент OpenAI по глобальным вопросам, выразила свое мнение по поводу предвзятости искусственного интеллекта на «Саммите будущего» Организации Объединенных Наций.
Она упомянула, что модели «вывода», такие как o1 OpenAI, могут значительно уменьшить предвзятость в системах искусственного интеллекта. Итак, как O1 делает это, объяснил Маканджу, что модели могут самостоятельно определять предвзятость в ответах и более внимательно следовать правилам не давать «вредных» ответов?

Она сказала, что модель O1 тратит больше времени на оценку собственных ответов при решении проблемы и способна проверить себя: «Она может сказать: «Вот как я бы решил эту проблему», а затем посмотреть на свой собственный ответ, чтобы увидеть «О, здесь может быть ошибка в рассуждениях». Она даже подчеркнула, что я «почти идеально» анализирует свои собственные предубеждения и что по мере развития технологий эта работа будет становиться все лучше и лучше.
Однако это «почти идеальное» утверждение кажется преувеличением. Внутреннее тестирование OpenAI показало, что o1 не показал хороших результатов в некоторых тестах на предвзятость по сравнению с моделями «без вывода», включая собственный GPT-4o. По вопросам расы, пола и возраста o1 в некоторых случаях работал даже хуже, чем GPT-4o. Хотя o1 показал лучшие результаты с точки зрения скрытой дискриминации, с точки зрения явной дискриминации он был более заметен в вопросах возраста и расы.
Что еще более интересно, экономичная версия o1, o1-mini, показала себя еще хуже. Тесты показывают, что o1-mini имеет более высокую вероятность явной дискриминации по полу, расе и возрасту, чем GPT-4o, а его неявная дискриминация по возрасту также более очевидна.
В дополнение к этому современные модели вывода имеют множество ограничений. OpenAI также признает, что o1 приносит минимальную пользу для некоторых задач. Отвечают медленно, на некоторые вопросы приходится отвечать более 10 секунд. Более того, стоимость о1 нельзя недооценивать, а эксплуатационные расходы в 3-4 раза выше, чем у GPT-4o.
Если модели вывода, о которых говорит Маканджу, действительно являются лучшим способом достижения справедливого ИИ, то их необходимо будет улучшить в других аспектах, помимо предвзятости, чтобы стать жизнеспособной альтернативой. В противном случае реальную выгоду получат только клиенты с глубокими карманами и готовностью терпеть всевозможные задержки и проблемы с производительностью.
Выделять:
Говорят, что модель o1 OpenAI значительно снижает предвзятость ИИ, но результаты испытаний показывают, что она работает не так хорошо, как ожидалось.
o1 работает лучше, чем GPT-4o, при неявной дискриминации, но хуже при явной дискриминации.
? Модель вывода o1 является дорогостоящей и работает медленно, и ее все еще необходимо улучшать во многих аспектах в будущем.
В целом, модели o1 OpenAI еще предстоит пройти долгий путь в уменьшении предвзятости ИИ. Хотя ее механизм самокоррекции впечатляет, высокая стоимость и ограничения по скорости, а также тот факт, что он плохо работает в некоторых тестах на погрешность, указывают на то, что эта технология все еще находится в зачаточном состоянии и еще довольно далека от практического применения на расстоянии. . Редактор Downcodes продолжит уделять внимание развитию этого направления.