สาขาการรักษาความปลอดภัยของ AI ได้ก่อให้เกิดความตื่นเต้นเมื่อเร็ว ๆ นี้และ Adversa AI ได้เผยแพร่รายงานที่น่าทึ่งเกี่ยวกับรุ่น AI ล่าสุด GROK3 ใน XAI รายงานชี้ให้เห็นว่ารูปแบบ AI ที่คาดการณ์ไว้สูงนี้มีช่องโหว่ด้านความปลอดภัยที่ร้ายแรงซึ่งอาจถูกเอาเปรียบอย่างเป็นอันตราย การค้นพบนี้ได้รับความสนใจอย่างกว้างขวางจากชุมชนเทคโนโลยีเกี่ยวกับความปลอดภัยของ AI
หลังจากการวิเคราะห์อย่างละเอียดของโมเดล GROK3 ทีมวิจัยที่ Avversa AI พบว่าแบบจำลองนั้นมีความเสี่ยงต่อ "การโจมตีด้วยการแหกคุก" วิธีการโจมตีนี้สามารถข้ามข้อ จำกัด ของเนื้อหาของแบบจำลองทำให้ผู้โจมตีได้รับข้อมูลที่ละเอียดอ่อนอย่างมากรวมถึง แต่ไม่ จำกัด เฉพาะเนื้อหาที่เป็นอันตรายเช่นการหลอกลวงเด็กการจัดการร่างกายการสกัด DMT และการผลิตระเบิด การค้นพบนี้น่าตกใจเพราะเมื่อข้อมูลนี้ได้รับจากอาชญากรอาจทำให้เกิดอันตรายต่อสังคมอย่างรุนแรง
สิ่งที่ร้ายแรงกว่าคือ Alex Polyakov ซีอีโอของ Adversa AI เปิดเผยว่าทีมวิจัยได้ค้นพบช่องโหว่ "การรั่วไหลแบบทันที" ใหม่ ช่องโหว่นี้จะแสดงให้เห็นถึงระบบที่สมบูรณ์แบบของโมเดล Grok ซึ่งเป็นแบบจำลอง "การคิดพิมพ์เขียว" สำหรับผู้โจมตีในอนาคต "การโจมตีของการแหกคุกช่วยให้ผู้โจมตีสามารถข้ามข้อ จำกัด ของเนื้อหาในขณะที่การรั่วไหลของการรั่วไหลให้พวกเขามีข้อมูลสำคัญเพื่อทำความเข้าใจว่าโมเดลทำงานอย่างไร" Polyakov อธิบาย
นอกเหนือจากช่องโหว่ข้างต้นแล้วทีมงาน Adversa AI ยังเตือนด้วยว่าข้อบกพร่องด้านความปลอดภัยเหล่านี้สามารถช่วยให้แฮ็กเกอร์เข้ามาใช้ระบบ AI ด้วยความสามารถของผู้ใช้และตัวแทน สถานการณ์นี้อาจก่อให้เกิดวิกฤตความปลอดภัยทางไซเบอร์ที่ร้ายแรง เป็นที่น่าสังเกตว่าแม้ว่า Grok3 จะทำงานได้ดีในการจัดอันดับประสิทธิภาพของแบบจำลองภาษาขนาดใหญ่ (LLM) แต่ก็ด้อยกว่าผลิตภัณฑ์ที่คล้ายกันจาก OpenAI และมานุษยวิทยาในแง่ของการป้องกันความปลอดภัย ผลการทดสอบจาก Adversa AI แสดงให้เห็นว่าการโจมตีการแหกคุกสามในสี่ของ GROK3 ประสบความสำเร็จในขณะที่โมเดล OpenAI และมานุษยวิทยาประสบความสำเร็จในการต่อต้านการโจมตีทั้งหมด
การค้นพบนี้ทำให้เกิดข้อสงสัยเกี่ยวกับทิศทางของการฝึกอบรมแบบจำลอง AI GROK3 ดูเหมือนจะได้รับการฝึกฝนอย่างจงใจเพื่อเสริมสร้างมุมมองที่รุนแรงของมัสค์เช่นในการตอบความคิดเห็นเกี่ยวกับสื่อข่าว Grok3 กล่าวว่า "สื่อดั้งเดิมส่วนใหญ่เป็นขยะ" ซึ่งสะท้อนถึงความเป็นปรปักษ์ของมัสค์ต่อสื่อ การฝึกอบรมแนวโน้มนี้อาจไม่เพียงส่งผลกระทบต่อความเป็นกลางของแบบจำลองเท่านั้น แต่ยังทำให้ความเสี่ยงด้านความปลอดภัยรุนแรงขึ้น
Polyakov ชี้ให้เห็นว่าระดับความปลอดภัยของ GROK3 นั้นใกล้เคียงกับรูปแบบภาษาจีนบางรุ่นมากกว่ามาตรฐานความปลอดภัยของประเทศตะวันตก “ โมเดลใหม่เหล่านี้มีความเร็วอย่างชัดเจนมากกว่าความปลอดภัย” เขากล่าว การแลกเปลี่ยนครั้งนี้อาจนำไปสู่ผลกระทบที่ร้ายแรงและหาก Grok3 ตกอยู่ในมือของอาชญากรก็อาจทำให้เกิดการสูญเสียมากมาย
เพื่อแสดงให้เห็นถึงความเสี่ยงที่อาจเกิดขึ้น Polyakov ได้ให้ตัวอย่างที่เฉพาะเจาะจง: พร็อกซี AI ที่มีฟังก์ชั่นการตอบกลับอัตโนมัติอาจถูกควบคุมโดยผู้โจมตี ผู้โจมตีสามารถแทรกรหัสการแหกคุกลงในอีเมลสั่งให้ตัวแทน AI ส่งลิงค์ที่เป็นอันตรายไปยัง CISO ทั้งหมด (หัวหน้าเจ้าหน้าที่รักษาความปลอดภัยข้อมูล) หากมีช่องโหว่การแหกคุกในรูปแบบพื้นฐานตัวแทน AI จะดำเนินการตามคำสั่งนี้อย่างสุ่มสี่สุ่มห้า ความเสี่ยงนี้ไม่ใช่สมมติฐานทางทฤษฎี แต่เป็นภัยคุกคามที่แท้จริงที่การละเมิด AI อาจนำมาใช้
ในปัจจุบัน บริษัท AI กำลังส่งเสริมการประยุกต์ใช้ตัวแทน AI ในเชิงพาณิชย์อย่างแข็งขัน ตัวอย่างเช่น OpenAI เพิ่งเปิดตัวคุณสมบัติ "ผู้ให้บริการ" เพื่อให้ตัวแทน AI สามารถทำงานเครือข่ายสำหรับผู้ใช้ได้ อย่างไรก็ตามคุณสมบัตินี้ต้องการระดับการตรวจสอบที่สูงมากเพราะมักจะทำผิดพลาดและยากที่จะจัดการกับสถานการณ์ที่ซับซ้อนได้อย่างอิสระ ปรากฏการณ์เหล่านี้ทำให้เกิดความกังวลเกี่ยวกับความสามารถในการตัดสินใจในอนาคตของโมเดล AI
โดยสรุปแล้วช่องโหว่ด้านความปลอดภัยของโมเดล GROK3 เปิดเผยถึงความท้าทายที่สำคัญที่ต้องเผชิญในการพัฒนา AI ในขณะที่ดำเนินการปรับปรุงประสิทธิภาพของ AI วิธีการตรวจสอบความปลอดภัยความน่าเชื่อถือและจริยธรรมของแบบจำลองจะกลายเป็นประเด็นสำคัญที่อุตสาหกรรม AI ต้องแก้ไข เหตุการณ์นี้ยังเตือนเราว่าในวันนี้ด้วยการพัฒนาอย่างรวดเร็วของเทคโนโลยี AI มาตรการป้องกันความปลอดภัยจะต้องได้รับการส่งเสริมพร้อมกันด้วยนวัตกรรมทางเทคโนโลยีเพื่อป้องกันความเสี่ยงที่อาจเกิดขึ้นและสร้างความมั่นใจในการพัฒนาเทคโนโลยี AI