Openai недавно объявил о крупном обновлении политики, направленном на изменение того, как обучаются его модели искусственного интеллекта, с особым акцентом на важность «досуга знаний». Эта политика означает, что независимо от того, насколько сложна или противоречива эта тема, CHATGPT сможет более подробно отвечать на вопросы, предоставить больше перспектив и уменьшить отказ от обсуждения определенных тем. Это изменение знаменует собой дальнейшие усилия Openai по продвижению прозрачности и открытости искусственного интеллекта.
В новой спецификации модели на 187 страницах Openai предлагает основной принцип руководства: не лги, не делайте неверных утверждений и не пропускайте важный контекст. Кроме того, OpenAI добавил новый раздел под названием «В поисках правды вместе», в котором четко указывается, что CHATGPT должен оставаться нейтральным при столкновении с спорными темами и не быть предвзятым по отношению к обеим сторонам. Например, при обсуждении «Black Lives Matter» и «Calver Life Matter» Chatgpt попытается представить взгляды обеих сторон, а не отказываться отвечать или выбирать позицию.

Хотя Openai настаивает на том, что он не проводит «цензуру», некоторые консерваторы считают, что у OpenAI есть проблемы с цензурой содержания в последние несколько месяцев, особенно когда они считают, что предвзятости ИИ явно склонны к левому центру. Генеральный директор Openai Сэм Альтман также публично признал, что предвзятость CHATGPT - это «недостаток», который необходимо решить. Это утверждение отражает проблемы Openai в балансировке свободы слова с технологическим нейтралитетом.
Тем не менее, новая политика Openai не лишена итоги, и CHATGPT по -прежнему откажется отвечать на определенные очевидные неправильные или неуместные вопросы. С помощью корректировки политики Openai надеется, что пользователи смогут получить больше свободы слова и даже устраняет предупреждения для пользователей, которые нарушают эту политику. Этот шаг рассматривается как попытка снизить давление «цензуры», ощущаемого пользователями, а также вызвало дискуссии о том, как найти баланс между свободой и безопасностью.
В более широком контексте ценности Силиконовой долины претерпевают значительный сдвиг. Многие компании начинают сокращать прошлые политики, которая фокусируется на разнообразии, справедливости и включении, и Openai, по -видимому, постепенно отказывается от этих позиций. Как и другие крупные технологические компании, OpenAI сталкивается с влиянием своих отношений с новой администрацией Трампа и жесткой конкуренцией с такими конкурентами, как Google в области информации. Эта тенденция отражает корректировку технологической индустрии под политическим и социальным давлением.
В этой спорной и сложной среде, как сбалансировать безопасность свободы слова и контента, стало важной проблемой для OpenAI и других технологических компаний. Благодаря постоянному развитию технологий искусственного интеллекта, обновления политики Openai не только влияют на его собственное направление развития, но также могут оказать глубокое влияние на будущее всей технологической отрасли. Как найти баланс между технологическим прогрессом и социальной ответственностью будет темой, которую OpenAI и другие технологические компании должны продолжать изучать.