การวิจัยล่าสุดของ Google เผยให้เห็นปัญหาสำคัญ: แบบจำลองภาษาขนาดใหญ่มีปัญหาในการแก้ไขข้อผิดพลาดการให้เหตุผลอย่างมีประสิทธิภาพในกรณีที่ไม่มีคำแนะนำภายนอก การค้นพบนี้มีความสำคัญอย่างยิ่งต่อสาขาปัญญาประดิษฐ์โดยเฉพาะอย่างยิ่งเมื่อพัฒนาแอพพลิเคชั่นที่ต้องการความปลอดภัยและความน่าเชื่อถือสูง นักวิจัยพบว่าเมื่อแบบจำลองพึ่งพากลไกภายในของตนเองเพื่อแก้ไขปฏิกิริยาเริ่มต้นพวกเขามักจะตกอยู่ในวงจรของข้อผิดพลาดที่ไม่สามารถแก้ไขตนเองได้อย่างแท้จริง
จากการทดลองทีมวิจัยพบว่าแม้ว่าหลายรูปแบบสามารถบรรลุ "ความสม่ำเสมอ" ในระดับหนึ่งผ่านการลงคะแนน แต่ก็ยังมีช่องว่างที่สำคัญระหว่างกลไกนี้และการแก้ไขตนเองที่แท้จริง ความสอดคล้องผิวเผินนี้อาจปกปิดข้อบกพร่องการใช้เหตุผลโดยธรรมชาติของแบบจำลองและไม่สามารถแก้ปัญหาการตัดสินที่ผิดได้โดยพื้นฐาน การค้นพบนี้เตือนเราว่าเมื่อประเมินประสิทธิภาพของแบบจำลองภาษาเราไม่สามารถพึ่งพาตัวชี้วัดความสอดคล้องของพื้นผิวได้เพียงอย่างเดียว
การศึกษาครั้งนี้มีผลกระทบอย่างลึกซึ้งต่อด้านความปลอดภัยของปัญญาประดิษฐ์ ในสถานการณ์การใช้งานที่มีความเสี่ยงสูงเช่นการวินิจฉัยทางการแพทย์และการให้คำปรึกษาทางกฎหมายความสามารถในการแก้ไขตนเองของแบบจำลองนั้นสำคัญมาก ผลการวิจัยแสดงให้เห็นว่าแบบจำลองภาษาปัจจุบันยังคงต้องการกลไกการกำกับดูแลภายนอกและกลไกการแทรกแซงเพื่อให้แน่ใจว่ามีความแม่นยำและความน่าเชื่อถือของผลลัพธ์ สิ่งนี้ให้การอ้างอิงที่สำคัญสำหรับการออกแบบระบบปัญญาประดิษฐ์ในอนาคต
นักวิจัยเน้นว่าในขณะที่แบบจำลองปัจจุบันมีข้อ จำกัด ในการแก้ไขตนเอง แต่นี่ไม่ได้หมายความว่าเราควรยอมแพ้ในการสำรวจ แต่การศึกษานี้ชี้ไปที่ทิศทางสำหรับการปรับปรุงในอนาคต พวกเขาเรียกร้องให้มีการพัฒนาอย่างต่อเนื่องของกลไกการแก้ไขตนเองขั้นสูงขึ้นอยู่กับความเข้าใจอย่างเต็มที่เกี่ยวกับศักยภาพและข้อ จำกัด ของแบบจำลอง ซึ่งอาจรวมถึงการแนะนำข้อมูลหลายรูปแบบความสามารถในการอนุมานที่เพิ่มขึ้นและการจัดตั้งระบบตรวจจับข้อผิดพลาดที่สมบูรณ์ยิ่งขึ้น
งานวิจัยนี้ยังก่อให้เกิดการคิดเชิงลึกเกี่ยวกับเส้นทางของการพัฒนาปัญญาประดิษฐ์ มันเตือนเราว่าในขณะที่การติดตามขนาดและประสิทธิภาพของแบบจำลองความสามารถในการใช้เหตุผลโดยธรรมชาติและกลไกการแก้ไขตนเองไม่ควรถูกเพิกเฉย การวิจัยในอนาคตอาจสำรวจวิธีการใหม่ ๆ ในการรวมฐานความรู้ภายนอกเข้ากับกระบวนการให้เหตุผลภายในเพื่อเพิ่มขีดความสามารถในการแก้ไขตนเองของโมเดล
โดยรวมแล้วการวิจัยโดย Google Deepmind ได้ฟังการโทรปลุกสำหรับสาขาปัญญาประดิษฐ์และยังชี้ให้เห็นถึงหนทางข้างหน้า มันเน้นว่าเมื่อพัฒนาแบบจำลองภาษาขนาดใหญ่ควรให้ความสนใจมากขึ้นในการฝึกฝนและการประเมินความสามารถในการแก้ไขตนเอง การค้นพบนี้จะขับเคลื่อนเทคโนโลยีปัญญาประดิษฐ์ไปสู่ทิศทางที่ปลอดภัยและเชื่อถือได้มากขึ้นโดยวางรากฐานสำหรับการสร้างระบบที่ชาญฉลาดอย่างแท้จริง