การวิจัยล่าสุดจากศูนย์ข่าวดิจิตอลที่ Columbia News Review เปิดเผยปรากฏการณ์ที่น่าตกใจ: ความนิยมของเครื่องมือค้นหา AI ให้ข้อมูลที่ไม่ถูกต้องหรือทำให้เข้าใจผิดเมื่อตอบคำถาม การค้นพบนี้ไม่เพียง แต่กังวล แต่ยังทำให้ความเชื่อมั่นของประชาชนลดลงโดยตรงในรายงานข่าวในขณะที่ยังเปิดเผยให้ผู้เผยแพร่โฆษณาขาดทุนเพิ่มขึ้นสองเท่าในการจราจรและรายได้

นักวิจัยได้ทดสอบการแชท AI AI แปดครั้งรวมถึง Chatgpt, Perplexity, Gemini และ Grok โดยขอให้พวกเขาระบุข้อความที่ตัดตอนมาจากบทความข่าวล่าสุด 200 บทความ ผลลัพธ์แสดงให้เห็นว่ามากกว่า 60% ของคำตอบนั้นผิด chatbots เหล่านี้มักจะสร้างชื่อเรื่องอย่าอ้างบทความหรืออ้างเนื้อหาที่ไม่ได้รับอนุญาต แม้ว่าพวกเขาจะชี้ให้เห็นอย่างถูกต้องของผู้เผยแพร่ลิงก์มักจะชี้ไปที่ URL ที่ไม่ถูกต้องเวอร์ชันที่พิมพ์ซ้ำหรือหน้าเว็บที่ไม่เกี่ยวข้องกับเนื้อหา
น่าผิดหวังที่แชทบอทเหล่านี้ไม่ค่อยแสดงความไม่แน่นอน แต่ให้คำตอบที่ผิดด้วยความมั่นใจที่ไม่เหมาะสม ตัวอย่างเช่น CHATGPT มีข้อความแสดงข้อผิดพลาด 134 ข้อความใน 200 ข้อความค้นหา แต่ได้แสดงความสงสัยใน 15 ครั้งเท่านั้น แม้แต่เวอร์ชันที่ชำระเงินของ Perplexity Pro และ Grok3 ก็ไม่น่าพอใจด้วยจำนวนคำตอบที่ไม่ถูกต้องสูงกว่าแม้ว่าพวกเขาจะมีราคาอยู่ที่ $ 20 และ $ 40 ต่อเดือนตามลำดับ
ในแง่ของการอ้างอิงเนื้อหา chatbots หลายคนล้มเหลวในการติดตามความพยายามที่เข้มงวดของผู้เผยแพร่และห้า chatbots ยังไม่สนใจมาตรฐานที่ได้รับการยอมรับอย่างกว้างขวางของโปรโตคอลการยกเว้นบอท ความงุนงงครั้งหนึ่งเคยอ้างถึงบทความจาก National Geographic เมื่อผู้จัดพิมพ์ จำกัด ตัวรวบรวมข้อมูลของพวกเขา ในขณะเดียวกัน CHATGPT ได้อ่านบทความเนื้อหา PayWall ของ USA Today ผ่านข่าว Yahoo ที่ไม่ได้รับอนุญาต
นอกจากนี้ Chatbots จำนวนมากยังนำผู้ใช้ไปยังบทความที่พิมพ์ซ้ำบนแพลตฟอร์มเช่น AOL หรือ Yahoo แทนที่จะเป็นแหล่งดั้งเดิมแม้ว่าจะมีการบรรลุข้อตกลงการอนุญาตกับ บริษัท AI ตัวอย่างเช่น Perplexity Pro อ้างถึงเวอร์ชันที่พิมพ์ซ้ำของ Texas Forum แต่ไม่สามารถให้ลายเซ็นที่ครบกำหนดได้ GROK3 และราศีเมถุนมักจะประดิษฐ์ URL และ 154 ของลิงก์ 200 คำตอบของ GROK3 ไปยังหน้าข้อผิดพลาด
การศึกษาครั้งนี้เน้นถึงวิกฤตที่เพิ่มขึ้นเผชิญกับองค์กรข่าว ชาวอเมริกันจำนวนมากขึ้นกำลังใช้เครื่องมือ AI เป็นแหล่งข้อมูลของพวกเขา แต่แตกต่างจาก Google Chatbots ไม่ได้ส่งการเข้าชมเว็บไซต์ แต่แทนที่จะสรุปเนื้อหาโดยไม่ต้องเชื่อมโยงกลับทำให้ผู้เผยแพร่สูญเสียรายได้จากการโฆษณา Danielle Coffey จาก News Media Alliance เตือนว่าหากไม่มีการควบคุมซอฟต์แวร์รวบรวมข้อมูลผู้จัดพิมพ์จะไม่สามารถ“ สร้างเนื้อหาที่มีค่าหรือจ่ายเงินเดือนนักข่าวได้อย่างมีประสิทธิภาพ”
หลังจากติดต่อ Openai และ Microsoft ทีมวิจัยได้ปกป้องแนวทางของพวกเขา แต่ไม่ตอบสนองต่อผลการวิจัยเฉพาะ Openai กล่าวว่า "ความเคารพการตั้งค่าของผู้เผยแพร่" และช่วยให้ผู้ใช้ "ค้นพบเนื้อหาคุณภาพ" ในขณะที่ Microsoft อ้างว่าเป็นไปตามโปรโตคอล "robots.txt" นักวิจัยเน้นว่าแนวทางการอ้างอิงที่ไม่ถูกต้องเป็นปัญหาที่เป็นระบบไม่ใช่เครื่องมือส่วนบุคคล พวกเขาเรียกร้องให้ บริษัท AI ปรับปรุงความโปร่งใสความแม่นยำและความเคารพต่อสิทธิของผู้จัดพิมพ์
ประเด็นสำคัญ:
การศึกษาพบว่าอัตราความผิดพลาดของคำตอบของ AI chatbots เกิน 60%ส่งผลกระทบต่อความน่าเชื่อถือของข่าวอย่างจริงจัง
chatbots หลายคนเพิกเฉยต่อข้อ จำกัด ของผู้เผยแพร่และอ้างเนื้อหาที่ไม่ได้รับอนุญาตและลิงก์ที่ไม่ถูกต้อง
องค์กรข่าวกำลังเผชิญกับวิกฤตการจราจรและรายได้สองครั้งและเครื่องมือ AI จะค่อยๆเปลี่ยนเครื่องมือค้นหาแบบดั้งเดิม