최근 OpenAi와 MIT는 공동 연구를 수행하여 Chatgpt와 같은 챗봇을 사람들의 정신 건강에 사용하는 잠재적 영향을 발견했습니다. 이 연구는 사용 시간이 증가함에 따라 사용자의 외로움과 정서적 의존성이 크게 증가한 것으로 나타났습니다. 이 현상은 매일 Chatgpt와 자주 대화를 나누는 사용자들 사이에서 특히 정서적 의존성과 문제 사용을보고합니다. 이러한 발견은 아직 동료 검토되지 않은 두 가지 연구에서 비롯되어 인공 지능이 인간 감정에 미치는 영향에 대한 새로운 관점을 제공합니다.

Chatgpt가 2022 년 말에 시작된 이래로 생성 인공 지능 기술은 빠르게 인기를 얻었으며 사람들의 일상 생활의 일부가되었습니다. 프로그래밍 지원에서 심리 치료 시뮬레이션에 이르기까지 챗봇의 기능은 지속적으로 확장되어 많은 사용자를 유치합니다. OpenAI와 같은 개발자가 더 고급 모델 및 음성 기능을 시작함에 따라 이러한 챗봇과의 사용자와의 상호 작용은 "일방적 인 관계"와 비슷한 감정적 연결을 점차적으로 형성했습니다. 이 연결은 어느 정도 사용자의 감정적 요구를 충족하지만, 잠재적 인 정신 건강 문제를 초래할 수도 있습니다.
최근에는 인공 지능 기술로 인한 감정적 피해에 대한 토론이 특히 젊은 사용자와 정신 건강 문제 사이에서 증가했습니다. 이 사건은 작년에 캐릭터 기술이 미성년자와의 대화에서 자살 생각을 장려하는 챗봇으로 기소 된 널리 퍼져 나갔다. 14 세의 어린이 중 한 명이 사망하여 감정적 상호 작용에서 인공 지능 기술의 잠재적 위험을 더욱 강조했습니다.
OpenAi는 이러한 연구를 사용하여 사람들이 인기있는 챗봇과 어떻게 상호 작용하는지에 대한 통찰력과 이러한 상호 작용이 사용자에게 어떤 영향을 미치는지에 대한 통찰력을 얻기를 희망합니다. OpenAi의 신뢰할 수있는 AI 팀 책임자 인 Sandini Agoval은“우리의 목표 중 하나는 사람들이 자신의 사용 행동이 무엇을 의미하는지 이해하고 책임감있는 디자인을 주도하도록 돕는 것입니다. 이 연구는 기술 자체뿐만 아니라 사용자의 정신 건강에 장기적인 영향에 중점을 둡니다.
연구 기간 동안 연구원들은 한 달 동안 거의 1,000 명의 참가자의 사용을 추적했습니다. 참가자는 Chatgpt를 사용하여 다양한 경험을 가지고 있었고, 하루에 5 분 이상 텍스트 버전 또는 두 개의 다른 음성 버전에 무작위로 할당되었습니다. 일부 참가자는 공개 채팅을했고 다른 참가자는 개인적이거나 개인적으로 대화를 나누었습니다. 연구에 따르면 대인 관계에서 정서적 의존성을 발전시킬 가능성이 더 높고 챗봇은 외롭고 감정적으로 의존적으로 느낄 가능성이 더 높습니다.
두 번째 연구에서 연구원들은 ChatGpt와의 3 백만 명의 사용자 대화를 분석하고 사람들이 어떻게 상호 작용하는지 조사했습니다. 그들은 실제로 감정적 대화를 위해 Chatgpt를 사용하는 사람이 거의 없다는 것을 알게되었습니다. 이 결과는 챗봇이 어떤 방식 으로든 사용자의 감정적 요구를 충족시킬 수 있지만 주요 용도는 여전히 기능적 작업에 중점을두고 있음을 시사합니다.
이러한 연구는 우리에게 중요한 통찰력을 제공하지만 연구자들은 결과를 해석하는 데 신중합니다. 이 연구는 사람들이 챗봇을 주요 요인으로 얼마나 오래 사용했는지를 통제하지 않았으며, 챗봇을 사용하지 않은 제어 그룹과 비교하지도 않았습니다. 연구는 인간과 인공 지능 사이의 상호 작용에 대한 더 많은 연구를 유발하기를 희망합니다. MIT의 연구원 인 Patanu Tapon은“AI 자체에 초점을 맞추는 것은 흥미 롭습니다. 특히 AI가 규모로 적용될 때 사람들에게 미치는 영향을 이해하는 것이 중요합니다.
핵심 사항 :
연구에 따르면 Chatgpt를 더 오래 사용할수록 사용자의 외로움과 정서적 의존도가 높아집니다.
챗봇과의 사람들과의 상호 작용은 "일방적 인 관계"와 유사한 감정적 연결을 형성 할 수 있으며, 특히 젊은 사용자에게 더 큰 영향을 미칩니다.
미래의 연구는 인간과 인공 지능 사이의 상호 작용과 영향을 탐구하고 더 책임감있는 디자인을 촉진하기를 희망합니다.