マシンインテリジェンス研究所(MIRI)は、潜在的なリスクが人類の滅亡につながる可能性があると考え、人間よりも賢いAIシステムの開発を中止するよう世界に呼び掛ける声明を発表した。この呼びかけはテクノロジー業界の一部のリーダーによって支持されてきましたが、論争も引き起こしました。 MIRIは、現在のAI開発のスピードは速すぎて、法的監督が追いつくのは困難であるため、AIの潜在的な悪意のある動作に対処するためには、「オフスイッチ」の設置を義務付けるなど、より積極的な対策が必要であると強調した。予測不可能なリスク。同研究所は、AI の安全性と制御可能性が確保されている場合にのみ、より高度な AI システムの開発を継続できると考えています。
非営利研究団体のマシンインテリジェンス研究所(MIRI)は、安全性の問題が人類の生存を脅かす可能性があることを懸念し、基礎的または「最先端」モデルの研究を中止するよう世界に呼び掛けた。基本モデルは、複数のモードに適用できる人工知能システムです。 MIRI は、基礎となるモデルは人間よりも賢く、「人類を破壊する」可能性があると信じています。

テクノロジー分野では、イーロン・マスク氏やスティーブ・ウォズニアック氏を含む一部の主要人物が、OpenAIのGPT-4よりも強力な基本モデルの開発の一時停止を求めている。しかし、MIRI はさらに一歩進めたいと考えており、最近発表されたコミュニケーション戦略では、人間よりも賢いシステムを構築する試みの完全な停止を求めています。
同団体は、「政策立案者は主に妥協によって問題に対処する。どこかで譲歩して別のところで何かを得る。人類の生存を維持するために必要な法案の多くが通常の政治プロセスを経てほつれ、効果のない妥協に陥ることを我々は懸念している」と述べた。その一方で、AI ラボはより堅牢なシステムの開発とトレーニングに投資を続けています。」
MIRIは政府が、基礎となるモデルを開発する企業に対し、悪意のある、または「Xリスク」の傾向が現れた場合にAIシステムを停止できる「キルスイッチ」の設置を強制することを望んでいる。
同非営利団体は、インテリジェントシステムは人間よりも賢いという考えに引き続きコミットしているが、「このタイプのAIを安全に構築する方法がわかるまで」構築したいと述べた。
MIRI は 2000 年にエリエザー ユドコウスキーによって設立され、ピーター ティールや仮想通貨イーサリアムの共同作成者ヴィタリック ブテリンなどの支援者が参加しました。 Future of Life Institute も MIRI への主要な貢献者の 1 つです。
AI・データ分析調査会社オムディアの主席アナリスト、ブラッドリー・シミン氏は、裏付けとなる研究が不足しているため、MIRIが議員を説得するのは難しいだろうと述べた。 「市場はこれらの問題を検討し、現在および近い将来のコンバータベースのGenAIモデルは、複雑なトピックの有用な表現を作成すること以外にはほとんど何もできないという結論に達しました」とMIRIは、それらの間の知識のギャップを正確に特定したと述べた。人工知能の構築と規制。
ハイライト:
- 非営利研究団体のマシンインテリジェンス研究所(MIRI)は、安全性の問題が人類の生存を脅かす可能性があることを懸念し、基礎的または「最先端」のモデル研究を中止するよう世界に呼び掛けた。
- MIRIは政府が、基礎となるモデルを開発している企業に、悪意のある、または「Xリスク」の傾向が現れた場合にAIシステムを停止できる「キルスイッチ」の設置を強制することを望んでいる。
*AI・データ分析調査会社オムディアの主席アナリスト、ブラッドリー・シミン氏は、裏付けとなる研究が不足しているため、MIRIが議員を説得するのは難しいだろうと述べた。
MIRI の呼びかけは、AI の安全性と開発速度について広範な議論を引き起こしましたが、その見解は極端ではありますが、人工知能の潜在的なリスクについての懸念も浮き彫りにしており、業界や政府は真剣に検討し検討する必要があります。今後は人工知能の発展とセキュリティリスクをどうバランスさせるかが重要な課題となる。