Anthropic Corporation は最近、人工知能モデルのパフォーマンスと影響を評価するための新しいベンチマークの開発に資金を提供する野心的な計画を発表し、人工知能のセキュリティ評価の分野における重要な一歩を踏み出しました。このプログラムは、人工知能モデルの高度な機能、特に生成 AI モデルの機能を効果的に測定できるツールを開発するサードパーティ組織に資金を提供します。この動きは、人工知能の安全分野の全体的なレベルを向上させるだけでなく、エコシステム全体に貴重な評価ツールを提供し、現在の高品質な安全関連の評価ツールの不足を解決します。 Anthropic の取り組みは注目に値しますが、その公平性と焦点についての議論も引き起こしています。
Anthropicは月曜日、自社のClaudeのような生成モデルを含む人工知能モデルのパフォーマンスと影響を評価できる新しいベンチマークの開発に資金を提供する新しいイニシアチブの立ち上げを発表した。
Anthropic の公式ブログに掲載された情報によると、同社は「人工知能モデルの高度な機能を効果的に測定する」ツールを開発するサードパーティ組織に財政的支援を提供する予定です。興味のある組織は申請書を提出でき、評価は定期的に行われます。

アンスロピック氏は、この投資は人工知能セキュリティの分野全体を改善し、エコシステム全体に貴重なツールを提供することを目的としていると述べた。同社は、高品質の安全関連評価の開発は依然として困難であり、需要が供給を上回っていると考えています。
このプログラムは、AI の安全性と社会的影響に焦点を当て、新しいツール、インフラストラクチャ、および方法論を通じて挑戦的なベンチマークを作成することを計画しています。 Anthropic は、サイバー攻撃、兵器の改造、操作や欺瞞などの分野におけるモデルの能力を評価するためのテストを特に要求しました。さらに同社は、国家安全保障と防衛関連の人工知能リスクを特定し評価するための「早期警告システム」の開発にも取り組んでいる。
アンスロピック氏はまた、新しいプログラムは科学研究を支援し、多言語でコミュニケーションし、偏見を緩和し、自己検閲を軽減するための人工知能の可能性を探る研究を支援すると述べた。これらの目標を達成するために、同社は専門家が評価を開発し、大規模な試験を実施できる新しいプラットフォームを構築することを構想している。
Anthropic の動きは賞賛されましたが、いくつかの疑問も生じました。同社の商業的利益を考慮すると、資金提供を受けたプロジェクトの公平性が影響を受ける可能性があると考える人もいる。さらに、一部の専門家は、Anthropic が引用した「壊滅的な」および「欺瞞的な」AI リスクの一部について懐疑的な姿勢を表明し、これが現在の AI 規制のより差し迫った問題から目をそらす可能性があると主張しています。
Anthropic は、この取り組みが包括的な AI 評価を業界標準にするのに役立つことを期待しています。ただし、独立した AI ベンチマーク開発グループが商用 AI ベンダーと協力するかどうかはまだわかりません。
Anthropic の動きによって人工知能の安全性評価分野の発展がうまく促進され、より公正で包括的な評価基準の確立が促進されるかどうかをテストするには時間がかかるでしょう。 その計画の長期的な影響と潜在的な限界には、引き続き注意と評価が必要です。