최근 많은 주목을 받는 AI 검색 도구인 Perplexity에서 심각한 문제가 드러났습니다. 해당 답변 소스에는 신뢰할 수 없는 블로그 및 LinkedIn 게시물에서 가져온 품질이 낮거나 잘못된 AI 생성 정보가 다량 포함되어 있습니다. 이 발견은 AI 검색 엔진 정보의 신뢰성에 대한 우려를 불러일으켰고 Perplexity의 평판에도 큰 영향을 미쳤습니다. 이 기사에서는 Perplexity가 직면한 딜레마와 이번 사건이 AI 분야에 미치는 영향을 자세히 분석할 것입니다.
새로운 보고서에 따르면 유명하고 자금이 풍부한 AI 검색 도구인 Perplexity가 신뢰할 수 없는 블로그 및 LinkedIn 게시물에서 품질이 낮거나 결함이 있는 AI를 인용하는 스팸을 생성하고 있는 것으로 나타났습니다.

AI 생성 콘텐츠 감지 전문 스타트업 GPTZero는 최근 Perplexity에 대한 심층 조사를 실시했습니다. 이 회사의 CEO인 Edward Tian은 이달 초 블로그 게시물에서 " 점점 더 많은 Perplexity 링크 소스가 AI에 의해 자동으로 생성되고 있다"고 언급했습니다.
그런 다음 그는 이 정보에 대한 Perplexity의 AI 재사용을 조사한 결과 어떤 경우에는 Perplexity가 이러한 AI 생성 소스에서 오래되고 잘못된 정보를 가져오기도 한다는 사실을 발견했습니다. 즉, AI의 실수와 허구의 정보가 Perplexity의 AI 생성 답변에 들어가는 AI 중심 잘못된 정보의 순환입니다.
예를 들어, "일본 교토의 문화 축제"라는 질문에 대해 Perplexity는 일관되게 보이는 일본 도시의 문화 명소 목록을 제공했습니다. 그러나 출처는 단 하나뿐입니다. 2023년 11월 LinkedIn에 게시된 모호한 블로그 게시물은 AI에 의해 생성되었을 가능성이 높습니다. 이는 Perplexity가 사용한다고 주장하는 "언론 기관, 학술 논문 및 기존 블로그"와는 거리가 멀습니다.
이는 "신뢰할 수 있는 소스"로부터 "최신 정보"를 얻어 "정확한 지식"을 제공함으로써 "정보 발견 방식의 혁신"을 주장하는 이미 문제가 있는 스타트업에 대한 나쁜 이미지입니다.
하이라이트:
의심스러운 블로그와 링크드인 기사에서 스팸을 생성하기 위해 결함이 있는 AI를 인용해 당황스러움이 드러났다.
GPTZero는 Perplexity에 연결된 소스의 수가 점점 더 AI에서 생성되었으며 Perplexity가 때때로 이러한 소스의 오래되고 잘못된 정보를 사용한다는 사실을 감지했습니다.
Perplexity는 답변이 "신뢰할 수 있는 소스"에서만 나온다고 주장하지만 AI 알고리즘이 실제로 좋은 정보에서 좋은 정보를 얻는지 여부가 정말 중요합니다.
퍼플렉시티(Perplexity) 사건은 AI 기술이 빠르게 발전하고 있지만 신뢰성과 보안성은 여전히 더 향상되어야 한다는 점을 다시 한 번 일깨워준다. AI가 허위 정보를 퍼뜨리는 도구가 되는 것을 방지하려면 AI가 생성한 콘텐츠를 엄격하게 검토하고 선별하는 것이 중요합니다. 앞으로 AI 검색 엔진은 사용자에게 신뢰할 수 있는 정보 서비스를 진정으로 제공하기 위해 보다 완벽한 품질 관리 시스템을 구축해야 합니다.