テクノロジーと軍事の交差点で、STS3Dという名前のエンジニアが最近、人工知能と武器の組み合わせに関する激しい議論を開始しました。彼が開発したロボットライフルは、ChatGptの指示を正確に目指して撮影することができますが、その反応速度と精度はさらに衝撃的です。この革新は間違いなくサイエンスフィクション映画のシーンを現実にもたらしますが、それはまた、テクノロジーの乱用に関する深い公共の懸念をもたらします。

画像ソースノート:画像はAIによって生成され、画像認定サービスプロバイダーMidjourney
ソーシャルメディアで広く流通しているビデオでは、STS3Dはこのロボットライフルの力を示しています。ビデオでは、エンジニアはシステムに指示を発行しました。「左右に攻撃されたChatGpt、それに応じて、ロボットライフルがすぐに開始され、弾丸が弾丸の弾丸のように見えたようです。近くの壁。このデモンストレーションは、テクノロジーの成熟度を実証するだけでなく、このテクノロジーの潜在的な危険性について人々に不思議に思わせます。
Openaiはこれに迅速に対応し、STS3Dの行動が会社の使用ポリシーに違反していることを明確に指摘し、関連する活動をすぐに停止するように依頼しました。 Openaiの広報担当者は、同社はユーザーがサービスを使用して武器を開発または使用することを厳密に禁止し、個人の安全を脅かす可能性のあるシステムを自動化することを強く禁止していると強調しました。 Openaiは昨年、そのテクノロジーを軍事目的に使用できるように政策を静かに改訂しましたが、あらゆる形態の「自分自身または他者」は依然として厳密に禁止されています。
STS3Dはまだ問題に対する公的な対応をしていませんが、彼の行動から判断すると、それは明らかにOpenaiの政策に反しています。 STS3Dは軍事または防衛請負業者のメンバーではありませんが、これは軍事分野でこの技術に関心がないという意味ではありません。実際、昨年、米国の防衛請負業者は、独立して発砲する可能性のあるAIロボットマシンガンをすでに実証していました。それをOpenAIテクノロジーと組み合わせる可能性は将来除外されていません。
この事件は、テクノロジーと武器の組み合わせに関する国民の懸念を引き起こしただけでなく、人々が将来の開発の方向性を再検討するよう促しました。人工知能技術の継続的な進歩により、革新と倫理のバランスを見つける方法が緊急の問題になりました。
キーポイント:
Openaiは、ポリシー違反のためにロボットライフルを開発しているエンジニアとの関係をすぐに遮断しました。
STS3Dのロボットライフルは、ChatGptの指示に従って照準を合わせて撮影でき、高い精度を示しています。
昨年のOpenaiの政策改訂にもかかわらず、あらゆる種類の武器を開発するためのサービスの使用が依然として禁止されています。