최근 Elon Musk의 소셜 플랫폼 X (이전 트위터)에 의해 새로운 트렌드가 등장했으며 일부 사용자는 Musk의 인공 지능 회사 Xai가 개발 한 AI 챗봇 인 "Fact Checking"을 사용하기 시작했습니다. 이 관행은 이것이 허위 정보의 확산을 더욱 발전시킬 수 있다고 믿는 전문 수동 사실 점검의 우려를 제기했습니다.

X 플랫폼은 이번 달 초에 사용자에게 질문을하기 위해 Xai Grok에 직접 전화하는 기능을 열었으며 사용자는 Grok에서 다른 주제에 대한 답변을 찾을 수 있습니다. 이 조치는 다른 회사 인 Perplexity가 유사한 서비스를 제공하기 위해 X에서 자동화 계정을 운영하는 방식과 유사합니다.
Xai의 Grok Automation 계정이 X 플랫폼에서 시작된 직후, 사용자는 다양한 질문을하기 시작했습니다. 특히 인도를 포함한 시장에서 일부 사용자는 Grok에게 특정 정치적 견해를 대상으로 한 의견과 문제를 "사실 확인"을 요청하기 시작했습니다.
그러나 인간의 사실 검사기는 Grok 또는 기타 유사한 AI 보조원을 사용하는 방법에 대해 우려하고 있습니다.이 로봇은 허위 정보를 제공 할 때에도 설득력있는 방식으로 답변을 구축 할 수 있기 때문입니다. Grok은 과거에 가짜 뉴스와 오해의 소지가있는 정보를 전했습니다.
작년 8 월 초, 5 명의 미국 국무 장관이 Musk에게 Grok을 주요 조정을 촉구했다. 뿐만 아니라 Openai의 Chatgpt 및 Google의 Gemini를 포함한 다른 챗봇도 작년에 선거에 대한 부정확 한 정보를 생성하는 것으로 밝혀졌습니다. 2023 년에 chatgpt를 포함한 AI 챗봇이 오해의 소지가 있고 설득력있는 텍스트를 쉽게 생성 할 수 있음을 발견했습니다.
"Grok과 같은 AI 조수는 자연 언어를 사용하는 데 매우 능숙하며 실제 사람들이 말하는 것과 같은 소리를 낼 수 있습니다. AI 제품이 잠재적으로 나쁘더라도 자연과 현실의 느낌을 줄 수 있습니다. 그것이 잠재적 인 위험이있는 곳입니다."
한 X 사용자는 Grok에게 다른 사용자의 진술을 "사실 확인"하도록 요청했습니다. AI 조수와 달리 인간 사실 검사기는 여러 신뢰할 수있는 출처를 사용하여 정보를 확인합니다. 또한 신뢰성을 보장하기 위해 그들의 발견에 대해 전폭적 인 책임을지고 대행사를 지명하고 첨부 할 것입니다.
비영리 사실 확인 웹 사이트 Alt News의 공동 설립자 인 Pratik Sinha는 Grok은 현재 설득력있는 답변을 제공하는 것처럼 보이지만 그 능력은 전적으로 획득 한 데이터의 품질에 달려 있다고 지적했습니다. "누가 어떤 데이터를 얻는가? 정부의 개입 및 기타 문제가 따를 것입니다. 투명성이 부족한 것은 투명성이 부족한 것이 마음대로 의지를 형성 할 수 있기 때문에 피해를 입힐 수 있기 때문에 피해를 입힐 수 있기 때문에 허위 정보를 전파하는 데 사용됩니다."
이번 주 초에 발표 된 답변에서 X에 대한 Grok의 공식 계정은 "허위 정보를 전파하고 개인 정보를 침해하는 데 사용될 수 있습니다." 그러나 자동화 된 계정은 답변을 할 때 사용자에게 면책 조항을 표시하지 않으며, 그 답변이 "환상"으로 인한 경우, 결과적으로 오해 될 수 있으며 이는 AI의 잠재적 인 단점이기도합니다. 고아의 학제 간 연구 기관인 Digital Futures Lab의 연구원 인 Anushuka Jain은“이는 정보를 제공하기 위해 정보를 제공 할 수있다.
또한 Grok이 X 플랫폼의 게시물을 교육 데이터로 사용하는 정도와 이러한 게시물의 진위를 확인하는 데 사용하는 품질 관리 측정에 대한 몇 가지 질문이 있습니다. 지난 여름 X 플랫폼은 Grok이 기본적으로 X 사용자의 공개 데이터를 사용할 수있는 것으로 보이는 변경을했습니다.
소셜 미디어 플랫폼을 통해 공개적으로 정보를 전파하는 AI 어시스턴트 (예 : Grok)의 또 다른 걱정스러운 측면은 일부 사용자가 AI 보조원으로부터 얻은 정보가 오도하거나 불완전하게 정확할 수 있음을 분명히 알고 있더라도 플랫폼의 다른 사람들이 여전히 그것을 믿을 수 있다는 것입니다. 이것은 심각한 사회적 피해를 유발할 수 있습니다. 이전에 인도에서는 WhatsApp을 통해 허위 정보가 퍼지는 거짓 정보가 대량 폭력으로 이어졌지만, 이러한 심각한 사건은 생성 AI 이전에 발생하여 합성 컨텐츠의 생산을보다 쉽고 현실적으로 만들었습니다.
"Grok의 답변이 많이 보이면 대부분의 사람들이 정확하다고 생각할 수도 있지만 아마도 일부는 잘못되었을 수도 있습니다. 일부는 잘못되었을 것입니다. 오류의 비율은 얼마입니까? 작은 비율이 아닙니다. 일부 연구에 따르면 AI 모델은 20%의 오류율이 높고 일단 잘못되면 심각한 실생활 결과를 초래할 수 있습니다."
XAI를 포함한 AI 회사는 AI 모델을 개선하여 인간과 더 많은 의사 소통을하고 있지만 여전히 인간을 보유하지는 않습니다. 최근 몇 달 동안 기술 회사는 인간 사실 검사기에 대한 의존도를 줄이는 방법을 모색 해 왔습니다. X 및 Meta를 포함한 플랫폼은 소위 "커뮤니티 노트"를 통해 사실 확인을 크라우드 소싱하려고 노력했습니다. 물론 이러한 변화는 사실 검사관들 사이에서 우려를 일으켰습니다.
Alt News 'Sinha는 사람들이 결국 기계와 인공 사실 검사기를 구별하는 법을 배우고 인간의 정확성에 더 많은 관심을 기울일 것이라고 낙관합니다. 홀랜드는 또한 다음과 같이 믿습니다. "우리는 결국 진자 스윙이 사실 점검에 더 많은 관심을 기울이는 방향으로 돌아올 것입니다." 그러나 그녀는이 기간 동안 사실 검사기가 AI가 생성 한 정보의 빠른 확산으로 인해 더 많은 노력을 기울일 수 있다고 언급했습니다. "이 문제의 큰 부분은 당신이 진짜 무엇이 실제로 무엇인지 신경 쓰는지에 달려 있거나, 소리가 나고 느끼고 실제로는 그런 식으로 생각하는 것을 찾고 있는지에 달려 있습니까? AI 조수가 제공 할 수있는 것은 후자이기 때문입니다."
X 나 Xai는 의견 요청에 응답하지 않았습니다.
핵심 사항 :
Musk의 AI Robot Grok은 X 플랫폼에서 사실 검증에 사용되어 오해의 소지가있는 정보의 확산에 대한 수동 검사관들 사이에서 우려를 유발했습니다. Grok과 같은 AI 비서는 믿을 수 있지만 부정확 한 답변을 생성하고 투명한 품질 관리 및 데이터 소스가 부족할 수 있습니다. 수동 사실 검사기는 신뢰할 수있는 정보 소스에 의존하고 책임을 맡고 있으며 AI는 정보 검증에서 인간의 역할을 대체 할 수 없습니다.