สถาบันวิจัยข่าวกรองเครื่องจักร (MIRI) ออกแถลงการณ์เรียกร้องให้โลกหยุดพัฒนาระบบ AI ที่ฉลาดกว่ามนุษย์ โดยเชื่อว่าความเสี่ยงที่อาจเกิดขึ้นอาจนำไปสู่การตายของมนุษยชาติ การโทรนี้ได้รับการสนับสนุนจากผู้นำในอุตสาหกรรมเทคโนโลยีบางราย แต่ก็ทำให้เกิดความขัดแย้งเช่นกัน MIRI เน้นย้ำว่าการพัฒนา AI ในปัจจุบันเร็วเกินไป และเป็นเรื่องยากสำหรับการกำกับดูแลทางกฎหมาย ดังนั้นจึงจำเป็นต้องมีมาตรการเชิงรุกมากขึ้น เช่น การติดตั้ง "สวิตช์ปิด" ที่จำเป็น เพื่อจัดการกับพฤติกรรมที่เป็นอันตรายที่อาจเกิดขึ้นของ AI และ ความเสี่ยงที่คาดเดาไม่ได้ สถาบันเชื่อว่าการพัฒนาระบบ AI ขั้นสูงยิ่งขึ้นสามารถดำเนินต่อไปได้ก็ต่อเมื่อมั่นใจว่า AI ปลอดภัยและสามารถควบคุมได้
กลุ่มวิจัยที่ไม่แสวงหาผลกำไร สถาบันวิจัยสติปัญญาเครื่องจักร (MIRI) เรียกร้องให้โลกหยุดการวิจัยแบบจำลองพื้นฐานหรือ "ล้ำสมัย" ด้วยเกรงว่าปัญหาด้านความปลอดภัยอาจคุกคามความอยู่รอดของมนุษย์ แบบจำลองพื้นฐานคือระบบปัญญาประดิษฐ์ที่สามารถประยุกต์ได้หลายโหมด MIRI เชื่อว่าแบบจำลองพื้นฐานจะฉลาดกว่ามนุษย์และมีศักยภาพในการ "ทำลายมนุษยชาติ"

ในสาขาเทคโนโลยี บุคคลสำคัญบางส่วน รวมถึง Elon Musk และ Steve Wozniak ได้เรียกร้องให้มีการเลื่อนการชำระหนี้ชั่วคราวในการพัฒนาโมเดลพื้นฐานที่ทรงพลังกว่า GPT-4 ของ OpenAI แต่ MIRI ต้องการก้าวไปอีกขั้นด้วยกลยุทธ์การสื่อสารที่เพิ่งเปิดตัวเมื่อเร็ว ๆ นี้ โดยเรียกร้องให้หยุดความพยายามที่จะสร้างระบบใด ๆ ที่ชาญฉลาดกว่ามนุษย์โดยสิ้นเชิง
กลุ่มกล่าวว่า: "ผู้กำหนดนโยบายจัดการกับปัญหาเป็นหลักโดยการประนีประนอม พวกเขายอมในที่ใดที่หนึ่งเพื่อให้ได้มาซึ่งสิ่งอื่น เราเกรงว่ากฎหมายส่วนใหญ่ที่จำเป็นเพื่อรักษาความอยู่รอดของมนุษย์จะผ่านกระบวนการทางการเมืองตามปกติและหลุดลุ่ย ไปสู่การประนีประนอมที่ไม่มีประสิทธิภาพ ในขณะเดียวกัน นาฬิกาก็กำลังดำเนินไปในห้องปฏิบัติการ AI ที่จะลงทุนในการพัฒนาและฝึกอบรมระบบที่แข็งแกร่งมากขึ้นอย่างต่อเนื่อง”
MIRI ต้องการให้รัฐบาลบังคับให้บริษัทที่พัฒนาโมเดลพื้นฐานติดตั้ง "kill switch" ที่สามารถปิดระบบ AI ได้ หากพวกเขาพัฒนาแนวโน้มที่เป็นอันตรายหรือ "x-risk"
องค์กรไม่แสวงหากำไรกล่าวว่ายังคงมุ่งมั่นที่จะแนวคิดของระบบอัจฉริยะที่ฉลาดกว่ามนุษย์ แต่ต้องการสร้างมันขึ้นมา "จนกว่าเราจะรู้วิธีสร้าง AI ประเภทนี้อย่างปลอดภัย"
MIRI ก่อตั้งขึ้นในปี 2000 โดย Eliezer Yudkowsky โดยมีผู้สนับสนุน ได้แก่ Peter Thiel และ Vitalik Buterin ผู้ร่วมสร้าง Ethereum cryptocurrency สถาบัน Future of Life ยังเป็นหนึ่งในผู้มีส่วนสนับสนุนหลักของ MIRI
Bradley Shimmin นักวิเคราะห์หลักของ AI และบริษัทวิจัยการวิเคราะห์ข้อมูล Omdia กล่าวว่า MIRI จะมีช่วงเวลาที่ยากลำบากในการโน้มน้าวผู้ร่างกฎหมายเนื่องจากขาดการสนับสนุนการวิจัย “ตลาดได้พิจารณาปัญหาเหล่านี้แล้วและสรุปได้ว่าความทันสมัยของโมเดล GenAI ที่ใช้คอนเวอร์เตอร์ในปัจจุบันและอนาคตอันใกล้ไม่สามารถทำอะไรได้มากนักยกเว้นสร้างการนำเสนอหัวข้อที่ซับซ้อนที่เป็นประโยชน์” Shimmin กล่าวอย่างถูกต้อง ระบุช่องว่างระหว่างความรู้เหล่านั้น การสร้างและควบคุมปัญญาประดิษฐ์
ไฮไลท์:
- กลุ่มวิจัยที่ไม่แสวงหาผลกำไร สถาบันวิจัยสติปัญญาเครื่องจักร (MIRI) เรียกร้องให้ทั่วโลกหยุดการวิจัยแบบจำลองพื้นฐานหรือ "ล้ำสมัย" โดยเกรงว่าปัญหาด้านความปลอดภัยอาจคุกคามความอยู่รอดของมนุษย์
MIRI ต้องการให้รัฐบาลบังคับให้บริษัทต่างๆ ที่กำลังพัฒนาโมเดลพื้นฐานติดตั้ง "kill switch" ที่สามารถปิดระบบ AI ได้ หากพวกเขาพัฒนาแนวโน้มที่เป็นอันตรายหรือ "x-risk"
- Bradley Shimmin นักวิเคราะห์หลักของ AI และบริษัทวิจัยการวิเคราะห์ข้อมูล Omdia กล่าวว่า MIRI จะมีช่วงเวลาที่ยากลำบากในการโน้มน้าวผู้ร่างกฎหมายเนื่องจากขาดการวิจัยที่สนับสนุน
การเรียกร้องของ MIRI ได้กระตุ้นให้เกิดการอภิปรายอย่างกว้างขวางเกี่ยวกับความปลอดภัยและความเร็วในการพัฒนาของ AI แม้ว่าความคิดเห็นของ MIRI จะรุนแรงมาก แต่ก็ยังเน้นย้ำถึงความกังวลเกี่ยวกับความเสี่ยงที่อาจเกิดขึ้นจากปัญญาประดิษฐ์ และสมควรได้รับการไตร่ตรองอย่างจริงจังและการพิจารณาจากภาคอุตสาหกรรมและรัฐบาล ในอนาคต วิธีการสร้างสมดุลระหว่างการพัฒนาปัญญาประดิษฐ์และความเสี่ยงด้านความปลอดภัยจะเป็นประเด็นสำคัญ