カリフォルニア大学、サンディエゴ、MITの研究チームは最近、オープンテレビジョンと呼ばれるオープンソースのリモートオペレーティングシステムプロジェクトを開始しました。これは、リモートコントロールの分野での革新的なブレークスルーと見なされる技術です。このシステムは、3,000マイル離れた正確なロボットコントロールを実現し、オペレーターがサイエンスフィクション映画「アバター」のシーンにいるように感じ、仮想現実技術を通じて物理世界のリモートコントロールを実現することができます。
オープンテレビシステムは、優れたデバイスの互換性を実証し、Vision Pro、Questシリーズ、Mac、iPad、iPhoneなどのさまざまな端末デバイスをサポートしています。そのコアの利点は、リアルタイムの3次元ビデオストリーミングテクノロジーにあり、ユーザーが正確な空間認識と詳細な情報を提供し、リモートコントロールエクスペリエンスを流れる雲と同じくらいスムーズで自然なものにします。このシームレスなクロスプラットフォーム接続機能は、ユーザーの使用のしきい値を大幅に削減し、リモートコントロールテクノロジーの普及と適用への道を開きます。
このシステムの核となる概念は、仮想現実テクノロジーを介して人間コンピューターの相互作用に深く没頭することを実現することです。ユーザーは、他の複雑なウェアラブルデバイスなしでロボットのリモートコントロールを実現するためにVRヘッドセットを着用するだけです。このシステムは、人間の双眼の立体視視と首の動きのメカニズムを巧みにシミュレートし、オペレーターが「没入型」制御体験を持ち、ヒューマンコンピューターの相互作用をまったく新しいレベルに上げます。
技術の実装に関しては、オープンテレビシステムは多くの革新的なハイライトを示しています。まず、従来の2Dビデオの制限を突破し、VRヘッドセットを介して3Dステレオスコピックビデオを提示し、オペレーターに正確な空間距離知覚を提供します。第二に、システムには動く首のシミュレーションメカニズムが装備されており、ユーザーは頭を回すだけで複数の角度から観察し、コントロールの利便性を大幅に改善できます。さらに、システムはインテリジェントな画像処理テクノロジーを採用し、写真の中心での処理に焦点を当てており、コンピューティング効率とシステムフレームレートを大幅に改善します。
特定の実装方法に関しては、システムは高度な逆運動アルゴリズムを採用して、VRヘッドセットによって提供されたAPIをロボットに正確にマッピングして、アクションの正確な送信を実現します。 Webプラットフォームに基づいたアーキテクチャ設計により、システムはいつでもどこでもデバイスのブラウザにアクセスでき、低遅延で高効率のリモート操作エクスペリエンスを実現できます。
リモート操作の分野における技術的な課題に応えて、オープンテレビシステムは革新的なソリューションを提供します。マッピングプロセスを通じて、システムはヒューマノイドロボットと人体の自由度の間の不一致の問題を効果的に解決し、さまざまなタイプのロボットへの広範な適応を達成します。同時に、システムはリモート操作を使用してトレーニングデータを収集します。これにより、ロボットの自律的なタスク完了能力が大幅に向上し、システムが優れた信頼性と一般化能力を示すことができます。
このプロジェクトはGitHubプラットフォームで開かれており、プロジェクトアドレスはhttps://github.com/improbabable-ai/visionproteleeopで、リモートコントロールテクノロジーの研究と適用のための貴重なリファレンスを提供します。オープンテレビシステムの発売は、仮想現実テクノロジーとロボット技術の完全な統合を実証するだけでなく、リモートコントロールの開発のための新しい方向性を開き、工業製造などの多くの分野で重要な役割を果たすことが期待されています。 、医療手術、および危険な環境の操作。