METAは、最先端のAIモデルのリスクを減らし、リスクレベルに基づいて対応する制御測定を行うことを目指して、新しい最先端のAIリスクポリシーフレームワークをリリースしました。このフレームワークは、AIモデルを2つのカテゴリに分割します。リスクとキーリスクの高リスクと、開発の停止、アクセス権の制限など、さまざまなレベルに対応する戦略を策定します。この動きは、AI開発のセキュリティと透明性を改善し、生物兵器の拡散や経済詐欺などの潜在的な脅威を防ぐことを目的としています。
Metaは最近、最先端のAIモデルによってもたらされるリスクの評価と削減を目的とした新しいリスクポリシーフレームワークをリリースし、必要に応じてこれらのシステムのリリースの開発または制限を停止しました。フロンティアAIフレームワークと呼ばれるフレームワークは、METAがAIモデルを2つのカテゴリに分割する方法について詳しく説明し、リスクと重大なリスクの2つのカテゴリになり、それに応じてリスクを「許容レベル」に減らすために対応する尺度を取ります。

このフレームワークでは、重要なリスクは、特定の脅威シナリオの実行を一意に促進できると定義されています。高リスクとは、モデルが脅威シナリオを達成する可能性を大幅に増加させる可能性があることを意味しますが、実行を直接容易にしないことを意味します。脅威のシナリオには、既知の生物学的薬剤に匹敵する能力がある生物兵器の急増、および大規模な長期的な詐欺と詐欺によって引き起こされる個人または会社への広範な経済的損害が含まれます。
重大なリスクのしきい値を満たすモデルの場合、METAは数人の専門家にのみモデルへの開発とオープンアクセスを停止し、技術的および商業的に実行可能なハッカーまたはデータ侵害を防ぐためのセキュリティ保護を実装します。ハイリスクモデルの場合、METAはアクセスを制限し、リスクを緩和するためのリスク軽減策を講じて、リスクを中程度のレベルに減らし、モデルが脅威シナリオの実行機能を大幅に改善しないようにします。
METAは、リスク評価プロセスには、学際的な専門家と内部企業のリーダーが関与し、あらゆる側面に関する意見が完全に考慮されるようにすると述べました。この新しいフレームワークは、現在の技術レベルに一致するか、それを超える機能が最先端のモデルとシステムにのみ適用されます。
メタは、高度なAIシステム開発方法を共有することにより、透明性を向上させ、AI評価とリスクの定量科学に関する外部の議論と研究を促進できることを望んでいます。同時に、同社は、AI評価の意思決定プロセスは、テスト環境の結果が実際の動作におけるモデルのパフォーマンスを真に反映できるようにするなど、テクノロジーの開発により進化し、改善し続けることを強調しました。
キーポイント:
METAは、最先端のAIモデルからのリスクを評価および削減するための新しいリスクポリシーフレームワークを開始します。
主要なリスクモデルが中止され、エキスパートアクセスが制限されます。
Riskリスク評価プロセスには、透明性と科学性の向上に努めて、学際的な専門家が含まれます。
Metaの新しいフレームワークは、将来のAIモデルの開発と展開のためのより高いセキュリティ基準を設定し、責任あるAI開発へのコミットメントを反映しています。 これは、AIテクノロジーの潜在的なリスクを減らすのに役立つだけでなく、業界に貴重な経験と参照を提供します。