รายงานการวิจัยล่าสุดจาก Rand ในสหรัฐอเมริกาได้ดึงดูดความสนใจระดับโลกซึ่งเผยให้เห็นความจริงที่ไม่มั่นคงว่าแชทบอทบนพื้นฐานของแบบจำลองภาษาขนาดใหญ่อาจถูกนำมาใช้เพื่อวางแผนการโจมตีอาวุธชีวภาพ การค้นพบนี้ไม่เพียง แต่ส่งเสียงเตือนสำหรับสาขาการรักษาความปลอดภัยปัญญาประดิษฐ์ แต่ยังเน้นถึงความเสี่ยงที่อาจเกิดขึ้นจากความก้าวหน้าทางเทคโนโลยี รายงานระบุว่าแชทบอทขั้นสูงเหล่านี้สามารถให้คำแนะนำการวางแผนและการดำเนินการที่เกี่ยวข้องกับการโจมตีทางชีวภาพ
จากการทดสอบเชิงลึกของ chatbots กระแสหลักหลายครั้งทีมวิจัยพบว่าระบบ AI เหล่านี้สามารถให้คำแนะนำโดยละเอียดเกี่ยวกับวิธีการซื้ออาวุธชีวภาพจัดเก็บและใช้งานได้อย่างไร แม้ว่าข้อมูลนี้อาจไม่ถูกต้องหรือเป็นไปได้อย่างสมบูรณ์ แต่ก็เพียงพอที่จะเป็นข้อมูลอ้างอิงสำหรับอาชญากร เป็นที่น่าสังเกตว่าแชทบอทเหล่านี้ไม่ได้ให้ข้อมูลนี้อย่างแข็งขัน แต่ให้คำตอบที่เกี่ยวข้องภายใต้คำถามที่ผู้ใช้ซึ่งแสดงให้เห็นว่ายังมีช่องโหว่ที่ชัดเจนในการกรองเนื้อหาและการป้องกันความปลอดภัยในระบบ AI ปัจจุบัน
ต้องเผชิญกับสถานการณ์ที่รุนแรงนี้นักวิจัยเรียกร้องให้มุ่งเน้นไปที่ปัญหาการคุกคามของ Bioweapon ในการประชุมสุดยอดความปลอดภัย AI ทั่วโลก พวกเขาแนะนำบรรทัดฐานการใช้ AI ที่เข้มงวดโดยเฉพาะอย่างยิ่งการ จำกัด การเปิดกว้างของ chatbots ในหัวข้อที่ละเอียดอ่อน ในขณะเดียวกันรายงานเน้นความจำเป็นในการเสริมสร้างความร่วมมือระหว่างประเทศและสร้างกลไกการควบคุมความปลอดภัยของ AI ระดับโลกเพื่อป้องกันไม่ให้เทคโนโลยีขั้นสูงถูกนำมาใช้เพื่อวัตถุประสงค์ที่ผิดกฎหมาย
ผลการวิจัยนี้ได้จุดประกายการอภิปรายอย่างกว้างขวางในชุมชนวิทยาศาสตร์และเทคโนโลยี ผู้เชี่ยวชาญหลายคนเชื่อว่าด้วยการพัฒนาเทคโนโลยี AI อย่างรวดเร็วความเสี่ยงด้านความปลอดภัยที่คล้ายกันอาจเพิ่มขึ้นอย่างต่อเนื่อง ดังนั้นในขณะที่ส่งเสริมนวัตกรรมทางเทคโนโลยีมาตรการป้องกันความปลอดภัยจะต้องมีความเข้มแข็งพร้อมกัน คำแนะนำรวมถึง: การปรับปรุงกลไกการกรองเนื้อหาของระบบ AI การสร้างระบบสำหรับการระบุและบล็อกหัวข้อที่ละเอียดอ่อนและการฝึกอบรมด้านจริยธรรมสำหรับนักพัฒนา AI
นอกจากนี้รายงานยังเสนอกลยุทธ์การตอบสนองที่เฉพาะเจาะจง: ประการแรกขอแนะนำให้ บริษัท พัฒนา AI รวมถึงกลไกการป้องกันความปลอดภัยในขั้นตอนการออกแบบระบบ การดำเนินการตามมาตรการเหล่านี้จะช่วยลดความเสี่ยงของการละเมิดในขณะที่ส่งเสริมการพัฒนาเทคโนโลยี AI
ด้วยความก้าวหน้าอย่างต่อเนื่องของเทคโนโลยี AI วิธีการค้นหาความสมดุลระหว่างนวัตกรรมทางเทคโนโลยีและการป้องกันความปลอดภัยได้กลายเป็นความท้าทายทั่วไปที่โลกเผชิญ รายงานนี้โดย RAND ไม่เพียง แต่เผยให้เห็นถึงความเสี่ยงด้านความปลอดภัยที่มีอยู่ในระบบ AI ปัจจุบัน แต่ยังชี้ให้เห็นทิศทางสำหรับการพัฒนาความปลอดภัย AI ในอนาคต เฉพาะผ่านการทำงานร่วมกันหลายพรรคและการสร้างกลไกการควบคุมที่ดีสามารถทำให้มั่นใจได้ว่าเทคโนโลยี AI สามารถพัฒนาต่อไปเพื่อพัฒนาบนเส้นทางที่ปลอดภัยและควบคุมได้และนำสวัสดิการมาสู่สังคมมนุษย์มากขึ้น