การวิจัยล่าสุดจาก MIT เผยให้เห็นความสามารถที่น่าทึ่งของรูปแบบภาษาขนาดใหญ่ (LLM) เพื่อแยกความแตกต่างระหว่างความจริงและข้อความเท็จ การวิจัยแสดงให้เห็นว่า LLM ไม่เพียง แต่สามารถระบุความถูกต้องของข้อมูล แต่ยังเปลี่ยน "ความเชื่อ" ภายใต้เงื่อนไขเฉพาะ การค้นพบนี้ให้มุมมองใหม่สำหรับความเข้าใจและกลไกการตัดสินใจของปัญญาประดิษฐ์แสดงให้เห็นถึงความซับซ้อนและความยืดหยุ่นของ LLM ในการประมวลผลข้อมูล
ทีมวิจัยพบว่ามี "ทิศทางของความจริง" ที่ชัดเจนภายใน LLM ซึ่งช่วยให้พวกเขาแยกแยะความแตกต่างระหว่างเนื้อหาจริงและเท็จในข้อมูลจำนวนมาก กลไกนี้คล้ายกับกระบวนการทางปัญญาของมนุษย์ แต่ความเร็วในการประมวลผล LLM และความแม่นยำนั้นเร็วกว่าและแม่นยำกว่ามนุษย์มาก ด้วยกลไกนี้ LLM สามารถเลือกหรือปฏิเสธข้อความบางอย่างเมื่อเผชิญกับข้อมูลที่ขัดแย้งซึ่งจะรักษาความสอดคล้องในตรรกะภายใน
สิ่งที่น่าประหลาดใจยิ่งกว่านั้นคือการวิจัยยังแสดงให้เห็นว่ามนุษย์สามารถจัดการกับระบบความเชื่อของ LLM ได้โดยตรงผ่านวิธีการทางเทคนิคคล้ายกับ "การผ่าตัดทางระบบประสาท" ซึ่งหมายความว่าผ่านการแทรกแซงที่เฉพาะเจาะจง LLM สามารถนำไปรับข้อมูลเท็จหรือปฏิเสธข้อมูลจริง การค้นพบนี้ไม่เพียง แต่เผยให้เห็นถึงความเป็นพลาสติกของ LLM แต่ยังกระตุ้นให้เกิดการคิดอย่างลึกซึ้งเกี่ยวกับจริยธรรมและความปลอดภัยของปัญญาประดิษฐ์
ความสำคัญของการวิจัยนี้ไม่เพียง แต่จะเปิดเผยหลักการทำงานของ LLM แต่ยังให้การอ้างอิงที่สำคัญสำหรับการพัฒนาปัญญาประดิษฐ์ในอนาคต ด้วยการทำความเข้าใจกับระบบ "ความเชื่อ" ของ LLM นักวิจัยสามารถออกแบบโมเดล AI ได้ดีขึ้นด้วยความน่าเชื่อถือและความปลอดภัยที่สูงขึ้น ในขณะเดียวกันงานวิจัยนี้ยังให้บริการวัสดุใหม่สำหรับการวิจัยเชิงเปรียบเทียบของปัญญาประดิษฐ์และความรู้ความเข้าใจของมนุษย์ซึ่งช่วยสำรวจสาระสำคัญของความฉลาด
โดยรวมการวิจัยนี้โดย MIT ให้มุมมองใหม่เกี่ยวกับความเข้าใจและความถูกต้องของแบบจำลองภาษาขนาดใหญ่แสดงให้เห็นถึงศักยภาพและความท้าทายของปัญญาประดิษฐ์ในการประมวลผลข้อมูล ด้วยการพัฒนาอย่างต่อเนื่องของเทคโนโลยีความสามารถของ LLM จะได้รับการปรับปรุงเพิ่มเติม แต่วิธีหลีกเลี่ยงการจัดการที่เป็นอันตรายในขณะที่มั่นใจว่าความน่าเชื่อถือจะกลายเป็นหัวข้อสำคัญในการวิจัยในอนาคต