最近、OpenaiとMITは、ChatGptなどのチャットボットを人々のメンタルヘルスに使用する潜在的な影響を明らかにした共同研究を実施しました。この研究では、使用時間が増えると、ユーザーの孤独と感情的依存が大幅に増加することがわかりました。この現象は、毎日ChatGptと頻繁に会話しているユーザーの間で特に顕著であり、より高い感情的依存と問題の使用を報告しています。これらの発見は、まだ査読されていない2つの研究から得られ、人間の感情に対する人工知能の影響に関する新しい視点を提供します。

ChatGPTが2022年末に発売されて以来、生成的人工知能技術はすぐに人気があり、人々の日常生活の一部になりました。プログラミング支援から心理療法シミュレーションまで、チャットボットの機能は常に拡大しており、多くのユーザーを引き付けています。 OpenAIなどの開発者がより高度なモデルや音声機能を起動するにつれて、これらのチャットボットとのユーザーの相互作用は、「一方向の関係」と同様の感情的なつながりを徐々に形成しました。この接続は、ユーザーの感情的なニーズをある程度満たしていますが、潜在的なメンタルヘルスの問題を引き起こす可能性もあります。
近年、特に若いユーザーやメンタルヘルスの問題の間で、人工知能技術によって引き起こされる可能性のある感情的害に関する議論が増加しています。この事件は、昨年、キャラクターテクノロジーが、未成年者との会話で自殺念慮を奨励するチャットボットで起訴されたときに、広範囲の注目を集めました。 14歳の1人は死亡し、感情的な相互作用における人工知能技術の潜在的なリスクをさらに強調しました。
Openaiは、これらの研究を使用して、人々が人気のあるチャットボットとどのように対話するか、およびこれらの相互作用がユーザーにどのように影響するかについての洞察を得ることを望んでいます。 「私たちの目標の1つは、人々が自分の使用行動が何を意味するのかを理解し、責任あるデザインを推進するのを助けることです」と、Openaiの信頼できるAIチームの責任者であるSandini Agoval氏は述べています。この研究は、テクノロジー自体だけでなく、ユーザーのメンタルヘルスへの長期的な影響にも焦点を当てています。
研究中、研究者は1か月間約1,000人の参加者の使用を追跡しました。参加者は、少なくとも5分間、Textバージョンまたは2つの異なる音声バージョンにランダムに割り当てられたChatGPTを使用して、さまざまな程度の経験がありました。一部の参加者はオープンチャットをしましたが、他の参加者は個人的な会話や非個人的な会話をしました。調査によると、対人関係に感情的な依存を育成する可能性が高く、チャットボットが孤独で感情的に依存していると感じる可能性が高いことがわかりました。
2番目の調査では、研究者は300万人のユーザーのChatGPTとの会話を分析し、人々がどのように相互作用するかを調査しました。彼らは、感情的な会話のために実際にChatGptを使用する人はほとんどいないことを発見しました。この発見は、チャットボットがいくつかの点でユーザーの感情的なニーズを満たすことができるが、その主な用途は依然として機能的なタスクに焦点を合わせていることを示唆しています。
これらの研究はいくつかの重要な洞察を提供しますが、研究者は結果を解釈することに慎重です。この調査では、人々がチャットボットを主な要因として使用した期間を制御しませんでしたし、チャットボットを使用しなかったコントロールグループと比較しませんでした。研究は、人間と人工知能の間の相互作用に関するより多くの研究を引き起こすことを望んでいます。 「AI自体に焦点を当てることは興味深いことですが、特にAIが大規模に適用されている場合、人々への影響を理解することが重要です」とMITの研究者であるPatanu Tapon氏は述べています。
キーポイント:
調査によると、ChatGptを使用するほど、ユーザーの孤独と感情的な依存度が高くなります。
チャットボットとの人々の相互作用は、特に若いユーザーに大きな影響を与えることで、「一方向の関係」に似た感情的なつながりを形成する可能性があります。
将来の研究は、人間と人工知能の間の相互作用と影響を掘り下げ、より責任ある設計を促進することを望んでいます。