เมื่อเร็ว ๆ นี้ Miles Brundage อดีตหัวหน้าฝ่ายวิจัยนโยบายของ Openai วิพากษ์วิจารณ์การเปลี่ยนแปลงการเล่าเรื่องของ บริษัท ในการรักษาความปลอดภัย AI โดยกล่าวว่า OpenAi กำลังเขียนประวัติความปลอดภัยในระบบ AI ใหม่ เขากล่าวว่า Openai อาจเพิกเฉยต่อมาตรการรักษาความปลอดภัยระยะยาวในการแสวงหาปัญญาประดิษฐ์ทั่วไป (AGI)

Openai มุ่งมั่นที่จะส่งเสริมวิสัยทัศน์ที่ทะเยอทะยานโดยเฉพาะอย่างยิ่งในบริบทของการเพิ่มขึ้นของคู่แข่งเช่น Deepseek ในกระบวนการของการดำเนินการพัฒนา AGI บริษัท มักเน้นถึงศักยภาพของตัวแทนปัญญาประดิษฐ์สุดยอด แต่ทัศนคตินี้ไม่ได้รับการยอมรับอย่างกว้างขวาง Brendage เชื่อว่า OpenAI มีเรื่องเล่าที่ไม่สอดคล้องกับการปรับใช้และความปลอดภัยของโมเดล AI ที่มีอยู่
เมื่อเร็ว ๆ นี้ OpenAI ได้เปิดตัวเอกสารเกี่ยวกับการปรับใช้แบบจำลอง AI อย่างค่อยเป็นค่อยไปเพื่อแสดงให้เห็นถึงวิธีการที่รอบคอบ การใช้ GPT-2 เป็นตัวอย่างในเอกสารเน้นว่าควรระมัดระวังในระดับสูงเมื่อต้องรับมือกับระบบปัจจุบัน Openai กล่าวถึงในเอกสาร: "ในโลกที่ไม่ต่อเนื่องบทเรียนความปลอดภัยมาจากความระมัดระวังในระดับสูงกับระบบของวันนี้ซึ่งเป็นวิธีการที่เราใช้กับรุ่น GPT-2"
อย่างไรก็ตาม Brendage ถามสิ่งนี้ เขาเชื่อว่าการเปิดตัว GPT-2 ก็เป็นไปตามแนวทางที่ค่อยเป็นค่อยไปและผู้เชี่ยวชาญด้านความปลอดภัยได้ชื่นชมการจัดการที่ระมัดระวังของ Openai เขาเชื่อว่าความรอบคอบในอดีตนั้นไม่มากเกินไป แต่จำเป็นต้องปฏิบัติและมีความรับผิดชอบ
นอกจากนี้ Brendage ยังแสดงความกังวลเกี่ยวกับการอ้างสิทธิ์ของ Openai ว่า AGI จะผ่านขั้นตอนค่อยเป็นค่อยไปมากกว่าการพัฒนาอย่างฉับพลัน เขาเชื่อว่าการเข้าใจผิดของ Openai เกี่ยวกับประวัติศาสตร์ของการเปิดตัว GPT-2 และการเล่าเรื่องประวัติศาสตร์ความปลอดภัยเป็นการรบกวน นอกจากนี้เขายังตั้งข้อสังเกตว่าเอกสารที่เผยแพร่โดย Openai อาจทำให้เกิดความกังวลด้านความปลอดภัยที่จะถูกมองว่าเป็นปฏิกิริยาเกินจริงซึ่งอาจก่อให้เกิดความเสี่ยงที่สำคัญในบริบทของระบบ AI ที่มีการพัฒนาตลอดเวลา
นี่ไม่ใช่ครั้งแรกที่ Openai ได้รับการวิพากษ์วิจารณ์โดยผู้เชี่ยวชาญที่ตั้งคำถามว่า บริษัท ได้ทำการแลกเปลี่ยนที่สมเหตุสมผลระหว่างความปลอดภัยระยะยาวและผลประโยชน์ระยะสั้นหรือไม่ ข้อกังวลของเบรนจ์ได้ดึงดูดความสนใจต่อความปลอดภัยของ AI อีกครั้ง
ประเด็นสำคัญ:
อดีตผู้นำนโยบายของ Openai ถามการเปลี่ยนแปลงของ บริษัท ในการเล่าเรื่องความปลอดภัยของ AI โดยเชื่อว่ามันเป็นความเข้าใจผิดของประวัติศาสตร์
เอกสารที่เผยแพร่โดย Openai เน้นความสำคัญของการเปิดตัวโมเดล AI อย่างระมัดระวัง แต่ได้รับการวิพากษ์วิจารณ์จากอดีตพนักงาน
ผู้เชี่ยวชาญแสดงความกังวลเกี่ยวกับการพัฒนาระบบ AI ในอนาคต