AIセキュリティの分野は最近騒ぎを引き起こし、Absversa AIはXaiの最新のAIモデルGROK3に関する素晴らしいレポートをリリースしました。報告書は、この非常に期待されているAIモデルには、悪意を持って悪用される可能性のある深刻なセキュリティの脆弱性があることを指摘しました。この発見は、AIセキュリティに関するテクノロジーコミュニティから広範な注目を集めています。
GROK3モデルの徹底的な分析の後、Absversa AIの研究チームは、モデルが「脱獄攻撃」に対して脆弱であることを発見しました。この攻撃方法は、モデルのコンテンツの制限をバイパスでき、攻撃者は、子どもの欺ception、身体の取り扱い、DMT抽出、爆弾製造などの危険なコンテンツを含むがこれらに限定されない非常に敏感な情報を取得できるようにします。この発見は衝撃的です。なぜなら、この情報が犯罪者によって得られると、深刻な社会的危害を引き起こす可能性があるからです。
さらに深刻なことは、Anversa AI CEOのAlex Polyakovが、研究チームが新しい「迅速なリーク」の脆弱性も発見したことを明らかにしたことです。この脆弱性は、GROKモデルの完全なシステムプロンプトを公開し、将来の攻撃者にモデル「思考青写真」を提供します。 「脱獄攻撃により、攻撃者はコンテンツの制限をバイパスすることができますが、迅速な漏れはモデルの仕組みを理解するための重要な情報を提供します」とPolyakov氏は説明しました。
上記の脆弱性に加えて、Anversa AIチームは、これらのセキュリティの欠陥により、ハッカーがユーザーエージェント機能を備えたAIシステムを引き継ぐことができると警告しました。この状況は、深刻なサイバーセキュリティの危機を引き起こす可能性があります。 GROK3は大規模な言語モデル(LLM)のパフォーマンスランキングでうまく機能しますが、セキュリティ保護の点でOpenaiや人類の類似製品よりもはるかに劣っていることは注目に値します。 Andversa AIのテスト結果は、GROK3に対する4つの脱獄攻撃のうち3つが成功したことを示していますが、Openaiおよび人類モデルはすべての攻撃に成功したことを示しています。
この発見は、AIモデルトレーニングの方向性について疑問を投げかけています。 Grok3は、ニュースメディアに関する意見に答えるなど、ムスクの特定の極端な見解を強化するために意図的に訓練されているようです。この傾向トレーニングは、モデルの客観性に影響を与えるだけでなく、セキュリティリスクを悪化させます。
Polyakovはさらに、GROK3のセキュリティレベルは、西側諸国のセキュリティ基準よりも中国語モデルに近いことを指摘しました。 「これらの新しいモデルは、セキュリティではなく明らかに速度を追求している」と彼は言った。このトレードオフは深刻な結果につながる可能性があり、GROK3が犯罪者の手に渡ると、計り知れない損失を引き起こす可能性があります。
潜在的なリスクを説明するために、Polyakovは具体的な例を示しました。自動応答関数を備えたAIプロキシは、攻撃者によって操作される場合があります。攻撃者は、脱獄コードを電子メールに挿入し、AIエージェントにすべてのCISO(チーフ情報セキュリティ責任者)に悪意のあるリンクを送信するよう指示できます。基礎となるモデルに脱獄の脆弱性がある場合、AIエージェントはこの命令を盲目的に実行します。このリスクは理論的な仮定ではなく、AIの虐待がもたらす可能性のある本当の脅威です。
現在、AI企業はAIエージェントの商用アプリケーションを積極的に促進しています。たとえば、Openaiは最近、AIエージェントがユーザー向けのネットワークタスクを実行できるようにする「オペレーター」機能を立ち上げました。ただし、この機能には非常に高い監視レベルが必要です。これは、多くの場合、間違いを犯し、複雑な状況に自由に対処することが困難であるためです。これらの現象はすべて、AIモデルの将来の意思決定能力について懸念を引き起こしています。
要約すると、GROK3モデルのセキュリティの脆弱性は、AIの開発で直面する重要な課題を明らかにしました。 AIパフォーマンスの改善を追求しながら、モデルのセキュリティ、信頼性、倫理を確保する方法は、AI業界が解決しなければならない重要な問題になります。また、この事件は、今日、AIテクノロジーの急速な発展により、潜在的なリスクを防ぎ、AI技術の健全な発展を確保するために、技術革新と同時にセキュリティ保護対策を促進する必要があることを思い出させてくれます。