Openaiは最近、「知識の余暇」の重要性に特に重点を置いて、人工知能モデルの訓練方法を変更することを目的とした主要なポリシーアップデートを発表しました。このポリシーは、トピックがどれほど挑戦的でも物議を醸すものであっても、ChatGptは質問にもっと包括的に答え、より多くの視点を提供し、特定のトピックについて議論する拒否を減らすことができることを意味します。この変化は、人工知能の透明性と開放性を促進するためのOpenaiによるさらなる努力を示しています。
新しい187ページモデルの仕様では、Openaiはコアガイドの原則を提案しています。嘘をつかないで、真実でない声明を出さないでください。重要なコンテキストを省略しないでください。さらに、Openaiは「The Truth Togetherを探して」という新しいセクションを追加しました。これは、ChatGptが物議を醸すトピックに直面し、どちらの側にも偏っていない場合は中立を維持すべきであると明確に述べています。たとえば、「Black Lives Matter」と「Everyone's Lives Matter」について議論するとき、ChatGptは、ポジションの回答や選択を拒否するのではなく、両当事者の意見を提示しようとします。

Openaiは「検閲」を実施していないと主張しているが、一部の保守派は、特にAIのバイアスが明らかに中央左に傾いていると信じている場合、過去数か月間、Openaiがコンテンツの検閲に問題を抱えていると信じている。 Openai CEOのSam Altmanはまた、ChatGptのバイアスが対処する必要がある「欠陥」であることを公に認めました。この声明は、言論の自由と技術的中立性のバランスをとる際のOpenaiの課題を反映しています。
ただし、Openaiの新しいポリシーには収益がないわけではなく、ChatGptは特定の明らかな間違ったまたは不適切な質問に答えることを拒否します。ポリシーの調整により、Openaiは、ユーザーがより多くの言論の自由を得ることができることを望んでおり、ポリシーに違反したユーザーへの警告を削除することさえできます。この動きは、ユーザーが感じた「検閲」の圧力を軽減する試みと見なされており、自由とセキュリティのバランスを見つける方法についての議論を引き起こしました。
より大きな文脈では、シリコンバレーの価値は大きな変化を遂げています。多くの企業は、多様性、公平性、包摂に焦点を当てた過去の政策を縮小し始めており、Openaiはこれらの立場を徐々に放棄しているようです。他の大手ハイテク企業と同様に、Openaiは新しいトランプ政権との関係の影響と、情報分野のGoogleのようなライバルとの激しい競争に直面しています。この傾向は、政治的および社会的圧力の下でのテクノロジー産業の調整を反映しています。
この物議を醸す挑戦的な環境では、言論の自由とコンテンツのセキュリティのバランスをとる方法は、Openaiや他のテクノロジー企業にとって重要な問題となっています。人工知能技術の継続的な開発により、Openaiのポリシーの更新は、独自の開発方向に影響を与えるだけでなく、テクノロジー業界全体の将来に大きな影響を与える可能性があります。技術の進歩と社会的責任のバランスを見つける方法は、Openaiや他のテクノロジー企業が引き続き探求する必要があるトピックになります。