เทรนด์ใหม่เกิดขึ้นเมื่อเร็ว ๆ นี้โดยแพลตฟอร์มโซเชียลของ Elon Musk X (เดิมคือ Twitter) และผู้ใช้บางคนเริ่มใช้ Grok ซึ่งเป็น AI chatbot ที่พัฒนาโดย XAI บริษัท ปัญญาประดิษฐ์ของ Musk สำหรับ "การตรวจสอบข้อเท็จจริง" การปฏิบัตินี้ทำให้เกิดความกังวลในการตรวจสอบข้อเท็จจริงมืออาชีพที่เชื่อว่าสิ่งนี้อาจทำให้เกิดการแพร่กระจายของข้อมูลเท็จต่อไป

เป็นที่เข้าใจกันว่าแพลตฟอร์ม X เปิดฟังก์ชั่นของการเรียก Xai Grok โดยตรงเพื่อถามคำถามกับผู้ใช้เมื่อต้นเดือนนี้และผู้ใช้สามารถขอคำตอบจาก Grok ในหัวข้อต่าง ๆ การย้ายนั้นคล้ายกับ บริษัท อื่น Perplexity ดำเนินการบัญชีระบบอัตโนมัติใน X เพื่อให้บริการที่คล้ายกัน
ไม่นานหลังจากบัญชี Grok Automation ของ Xai เปิดตัวบนแพลตฟอร์ม X ผู้ใช้เริ่มพยายามถามคำถามต่าง ๆ โดยเฉพาะอย่างยิ่งในตลาดรวมถึงอินเดียผู้ใช้บางคนเริ่มขอให้ Grok แสดงความคิดเห็น "ตรวจสอบข้อเท็จจริง" และประเด็นที่กำหนดเป้าหมายมุมมองทางการเมืองที่เฉพาะเจาะจง
อย่างไรก็ตามตัวตรวจสอบข้อเท็จจริงของมนุษย์มีความกังวลเกี่ยวกับวิธีการใช้ Grok หรือผู้ช่วย AI อื่น ๆ ที่คล้ายกันในการทำ "การตรวจสอบข้อเท็จจริง" เพราะหุ่นยนต์เหล่านี้สามารถสร้างคำตอบได้ในรูปแบบที่น่าเชื่อแม้ในขณะที่ให้ข้อมูลเท็จ Grok ได้แพร่กระจายข่าวปลอมและข้อมูลที่ทำให้เข้าใจผิดในอดีต
เร็วที่สุดเท่าที่เดือนสิงหาคมปีที่แล้วเลขานุการของรัฐสหรัฐอเมริกาห้าคนเรียกร้องให้มัสค์ทำการปรับเปลี่ยนที่สำคัญกับ Grok หลังจากผู้ช่วยกระจายข้อมูลที่ทำให้เข้าใจผิดเกี่ยวกับเครือข่ายสังคมออนไลน์ในวันเลือกตั้งสหรัฐในเวลานั้น ไม่เพียงแค่นั้น chatbots อื่น ๆ รวมถึง chatgpt ของ Openai และราศีเมถุนของ Google ก็พบว่าสร้างข้อมูลที่ไม่ถูกต้องเกี่ยวกับการเลือกตั้งเมื่อปีที่แล้ว นักวิจัยต่อต้านข้อมูลที่ไม่ได้ค้นพบอีกคนหนึ่งได้ค้นพบในปี 2566 ว่า AI chatbots รวมถึง ChatGPT สามารถสร้างข้อความที่ทำให้เข้าใจผิดและน่าเชื่อถือได้อย่างง่ายดาย
"ผู้ช่วย AI เช่น Grok นั้นใช้ภาษาธรรมชาติได้ดีมากและให้คำตอบที่ฟังดูเหมือนว่าคนจริงพูดด้วยวิธีนี้แม้ว่าผลิตภัณฑ์ AI อาจไม่ดีพวกเขาสามารถให้ความรู้สึกถึงธรรมชาติและความเป็นจริงนั่นคือสิ่งที่อาจเกิดขึ้นได้"
ผู้ใช้ X หนึ่งคนได้ขอให้ Grok "ตรวจสอบข้อเท็จจริง" คำสั่งของผู้ใช้รายอื่น ซึ่งแตกต่างจากผู้ช่วย AI ตัวตรวจสอบข้อเท็จจริงของมนุษย์ใช้แหล่งข้อมูลที่เชื่อถือได้หลายแห่งเพื่อตรวจสอบข้อมูล พวกเขาจะรับผิดชอบอย่างเต็มที่สำหรับการค้นพบชื่อและแนบเอเจนซี่เพื่อให้แน่ใจว่าน่าเชื่อถือ
Pratik Sinha ผู้ร่วมก่อตั้งเว็บไซต์ Alt News ที่ไม่แสวงหาผลกำไรชี้ให้เห็นว่าแม้ว่า Grok จะให้คำตอบที่น่าเชื่อถือในขณะนี้ความสามารถของมันขึ้นอยู่กับคุณภาพของข้อมูลที่ได้รับ เขาเน้นว่า: "ใครเป็นผู้ตัดสินใจว่าข้อมูลใดได้รับการแทรกแซงของรัฐบาลและปัญหาอื่น ๆ ที่จะตามมาสิ่งที่ขาดความโปร่งใสจะต้องก่อให้เกิดอันตรายเพราะสิ่งใดที่ขาดความโปร่งใสสามารถหล่อหลอมได้ตามต้องการ ...
ในการตอบกลับเมื่อต้นสัปดาห์ที่ผ่านมาบัญชีอย่างเป็นทางการของ Grok เกี่ยวกับ X ยอมรับว่ามันเป็น "อาจถูกทารุณกรรม - ใช้เพื่อกระจายข้อมูลเท็จและบุกรุกความเป็นส่วนตัว" อย่างไรก็ตามบัญชีอัตโนมัติไม่แสดงข้อจำกัดความรับผิดชอบใด ๆ ต่อผู้ใช้เมื่อให้คำตอบและหากคำตอบของมันเกิดจาก "ภาพลวงตา" ผู้ใช้อาจถูกเข้าใจผิดเป็นผลซึ่งเป็นข้อเสียเปรียบที่อาจเกิดขึ้นของ AI “ มันอาจสร้างข้อมูลเพื่อให้การตอบสนอง” Anushuka Jain นักวิจัยของ Digital Futures Lab ซึ่งเป็นสถาบันวิจัยสหวิทยาการในกัวกล่าว
นอกจากนี้ยังมีคำถามบางอย่างเกี่ยวกับขอบเขตที่ Grok ใช้โพสต์บนแพลตฟอร์ม X เป็นข้อมูลการฝึกอบรมและมาตรการควบคุมคุณภาพที่ใช้ในการตรวจสอบความถูกต้องของโพสต์เหล่านี้ ฤดูร้อนปีที่แล้วแพลตฟอร์ม X ทำการเปลี่ยนแปลงที่ดูเหมือนว่าจะอนุญาตให้ Grok ใช้ข้อมูลสาธารณะจากผู้ใช้ X โดยค่าเริ่มต้น
อีกแง่มุมหนึ่งที่น่าเป็นห่วงของผู้ช่วย AI (เช่น Grok) การเผยแพร่ข้อมูลสาธารณะผ่านแพลตฟอร์มโซเชียลมีเดียคือคนอื่น ๆ บนแพลตฟอร์มอาจยังเชื่อแม้ว่าผู้ใช้บางคนจะทราบอย่างชัดเจนว่าข้อมูลที่ได้จากผู้ช่วย AI อาจทำให้เข้าใจผิดหรือถูกต้องไม่สมบูรณ์ สิ่งนี้อาจทำให้เกิดอันตรายต่อสังคมอย่างรุนแรง ก่อนหน้านี้ในอินเดียข้อมูลเท็จแพร่กระจายผ่าน WhatsApp นำไปสู่ความรุนแรงจำนวนมากแม้ว่าเหตุการณ์ร้ายแรงเหล่านั้นจะเกิดขึ้นก่อนที่จะเกิด AI ซึ่งตอนนี้ทำให้การผลิตเนื้อหาสังเคราะห์ง่ายขึ้นและสมจริงยิ่งขึ้น
"ถ้าคุณเห็นคำตอบของ Grok มากมายคุณอาจคิดว่าพวกเขาส่วนใหญ่ถูกต้องอาจเป็นไปได้ แต่มีบางอย่างผิดปกติอัตราส่วนของข้อผิดพลาดคืออะไร? นั่นไม่ใช่สัดส่วนเล็กน้อยการศึกษาบางอย่างแสดงให้เห็นว่าแบบจำลอง AI มีอัตราความผิดพลาดสูงถึง 20%
บริษัท AI รวมถึง Xai กำลังปรับปรุงโมเดล AI ของพวกเขาเพื่อสื่อสารเหมือนมนุษย์มากขึ้น แต่พวกเขาก็ยังไม่ได้-และไม่สามารถ-แทนที่มนุษย์ในขณะนี้ ในช่วงไม่กี่เดือนที่ผ่านมา บริษัท เทคโนโลยีได้สำรวจวิธีการลดการพึ่งพาตัวตรวจสอบข้อเท็จจริงของมนุษย์ แพลตฟอร์มรวมถึง X และ Meta ได้เริ่มพยายามตรวจสอบข้อเท็จจริงผ่านการระดมทุนผ่าน "โน้ตชุมชน" ที่เรียกว่า แน่นอนการเปลี่ยนแปลงเหล่านี้ยังก่อให้เกิดข้อกังวลระหว่างผู้ตรวจสอบข้อเท็จจริง
Alt News 'Sinha เป็นคนมองโลกในแง่ดีว่าในที่สุดผู้คนจะเรียนรู้ที่จะแยกแยะความแตกต่างระหว่างเครื่องจักรและเครื่องตรวจสอบข้อเท็จจริงเทียมและจะให้ความสำคัญกับความแม่นยำของมนุษย์มากขึ้น ฮอลแลนด์ยังเชื่อว่า: "ในที่สุดเราจะเห็นการแกว่งลูกตุ้มกลับไปสู่ทิศทางของการให้ความสนใจมากขึ้นในการตรวจสอบข้อเท็จจริง" อย่างไรก็ตามเธอตั้งข้อสังเกตว่าในช่วงเวลานี้ผู้ตรวจสอบข้อเท็จจริงอาจมีงานต้องทำมากขึ้นเนื่องจากการแพร่กระจายข้อมูลที่เกิดขึ้นอย่างรวดเร็วของ AI "ส่วนใหญ่ของปัญหานี้ขึ้นอยู่กับว่าคุณสนใจอะไรจริง ๆ หรือเพียงแค่มองหาสิ่งที่ฟังและรู้สึกจริงและไม่ใช่แบบนั้นจริง ๆ เพราะสิ่งที่ผู้ช่วย AI สามารถเสนอได้คือสิ่งหลัง"
X หรือ Xai ไม่ตอบสนองต่อการร้องขอความคิดเห็น
ประเด็นสำคัญ:
AI Robot Grok ของ Musk ใช้สำหรับการตรวจสอบข้อเท็จจริงบนแพลตฟอร์ม X ทำให้เกิดความกังวลในหมู่ผู้ตรวจสอบด้วยตนเองเกี่ยวกับการแพร่กระจายของข้อมูลที่ทำให้เข้าใจผิด ผู้ช่วย AI เช่น Grok อาจสร้างคำตอบที่น่าเชื่อถือ แต่ไม่ถูกต้องและขาดการควบคุมคุณภาพและแหล่งข้อมูลที่โปร่งใส ผู้ตรวจสอบข้อเท็จจริงด้วยตนเองพึ่งพาแหล่งข้อมูลที่เชื่อถือได้และรับผิดชอบและรับผิดชอบและ AI ไม่สามารถแทนที่บทบาทของมนุษย์ในการตรวจสอบข้อมูล