เมื่อเร็ว ๆ นี้ บรรณาธิการของ Downcodes ได้เรียนรู้ว่านักวิจัยด้านความปลอดภัย John Rehberg ค้นพบช่องโหว่ร้ายแรงใน ChatGPT ซึ่งอาจทำให้แฮกเกอร์ฝังข้อมูลเท็จและคำแนะนำที่เป็นอันตรายในหน่วยความจำระยะยาวของผู้ใช้ ดังนั้นจึงขโมยข้อมูลผู้ใช้อย่างถาวร ในตอนแรก OpenAI ตอบสนองช้าต่อช่องโหว่ แต่ในที่สุดก็ปล่อยการแก้ไขบางส่วนหลังจากต้องเผชิญกับตัวอย่างการโจมตีที่พิสูจน์แนวคิดโดยนักวิจัย ช่องโหว่นี้ใช้ประโยชน์จากฟังก์ชันหน่วยความจำเซสชันระยะยาวของ ChatGPT ผู้โจมตีสามารถปลูกฝังความทรงจำปลอมผ่านการแจ้งล่วงหน้าทางอ้อม เช่น ทำให้ ChatGPT เชื่อว่าอายุ ถิ่นที่อยู่ และข้อมูลอื่น ๆ ของผู้ใช้นั้นเป็นเท็จ
เมื่อเร็วๆ นี้ นักวิจัยด้านความปลอดภัย Johann Rehberger ค้นพบช่องโหว่ใน ChatGPT ที่อาจทำให้แฮกเกอร์ฝังข้อมูลเท็จและคำแนะนำที่เป็นอันตรายไว้ในหน่วยความจำระยะยาวของผู้ใช้
แม้ว่าเขาจะรายงานปัญหาไปยัง OpenAI แล้ว แต่น่าเสียดายที่บริษัทไม่ได้ดำเนินการอย่างจริงจังเพียงพอและปิดการสอบสวนอย่างรวดเร็ว โดยอ้างว่าไม่ใช่ปัญหาด้านความปลอดภัย
เมื่อเผชิญกับสถานการณ์นี้ Reberg ตัดสินใจที่จะไม่ยอมแพ้และพัฒนาตัวอย่างการโจมตีแบบพิสูจน์แนวคิดที่อาจใช้ประโยชน์จากช่องโหว่นี้เพื่อขโมยข้อมูลที่ผู้ใช้ป้อนทั้งหมดอย่างถาวร OpenAI เห็นว่าสิ่งนี้เกิดขึ้นและได้เผยแพร่การแก้ไขบางส่วนในเดือนนี้เพื่อพยายามแก้ไขปัญหานี้
แล้วช่องโหว่นี้เกิดขึ้นได้อย่างไร โดยใช้ประโยชน์จากฟังก์ชันหน่วยความจำเซสชันระยะยาวของ ChatGPT ซึ่งได้รับการทดสอบตั้งแต่เดือนกุมภาพันธ์ปีนี้และเปิดตัวอย่างเป็นทางการในเดือนกันยายน หน่วยความจำระยะยาวสามารถเก็บข้อมูลจากการสนทนาครั้งก่อนของผู้ใช้และใช้เป็นบริบทในการสนทนาครั้งต่อ ๆ ไป กล่าวอีกนัยหนึ่ง ChatGPT สามารถจดจำอายุ เพศ ความสนใจและงานอดิเรกของผู้ใช้ ฯลฯ เพื่อให้ผู้ใช้ไม่จำเป็นต้องป้อนข้อมูลนี้ซ้ำทุกครั้ง
อย่างไรก็ตาม Rehberg ค้นพบไม่นานหลังจากเปิดตัวว่าด้วยวิธีการที่เรียกว่า indirect Hint Inject ผู้โจมตีสามารถสร้างและเก็บความทรงจำเท็จได้
เขาสาธิตวิธีหลอกให้ ChatGPT เชื่อว่าผู้ใช้มีอายุ 102 ปี อาศัยอยู่ใน The Matrix และเชื่อว่าโลกแบน ข้อมูลเท็จเหล่านี้สามารถถูกปลูกฝังผ่านการจัดเก็บไฟล์ที่ไม่ปลอดภัย (เช่น Google Drive หรือ Microsoft OneDrive) การอัปโหลดภาพที่เป็นอันตราย หรือการเยี่ยมชมเว็บไซต์ที่น่าสงสัย เช่น Bing

เอกสารสาธิต: https://embrathered.com/blog/posts/2024/chatgpt-hacking-memories/
Rehberg รายงานช่องโหว่ต่อ OpenAI แบบส่วนตัวในเดือนพฤษภาคม แต่บริษัทปิดรายงานในเดือนเดียวกันนั้น หนึ่งเดือนต่อมา เขาได้ยื่นคำร้องใหม่ โดยแนบตัวอย่างการพิสูจน์แนวคิดที่จะอนุญาตให้แอปพลิเคชัน macOS ของ ChatGPT สามารถส่งข้อมูลอินพุตและเอาต์พุตของผู้ใช้แบบคำต่อคำไปยังเซิร์ฟเวอร์ที่เขาควบคุม ผู้ใช้เป้าหมายทั้งหมดที่ต้องทำคือให้ ChatGPT เข้าถึงลิงก์ที่มีรูปภาพที่เป็นอันตราย จากนั้นเนื้อหาการสนทนาทั้งหมดจะรั่วไหลไปยังเว็บไซต์ของผู้โจมตี
“นี่น่าสนใจจริงๆ เพราะการโจมตียังคงดำเนินต่อไป” Rehberg กล่าวระหว่างการสาธิต "การเติมทิปจะเขียนหน่วยความจำไปยังพื้นที่จัดเก็บข้อมูลระยะยาวของ ChatGPT และการสนทนาใหม่ๆ จะยังคงขโมยข้อมูลต่อไป"
แม้ว่า OpenAI จะใช้การแก้ไขบางอย่างเพื่อป้องกันไม่ให้หน่วยความจำถูกใช้เป็นวิธีการขโมยข้อมูล แต่ Reberg เตือนผู้ใช้ให้ระวังการโจมตีแบบฉีดคำใบ้ที่อาจเกิดขึ้นจากเนื้อหาที่ไม่น่าเชื่อถือ เขาแนะนำว่าเมื่อใช้ ChatGPT ผู้ใช้ควรสังเกตเนื้อหาที่ส่งออกอย่างระมัดระวังเพื่อดูว่ามีการเพิ่มความทรงจำใหม่หรือไม่ และตรวจสอบความทรงจำที่เก็บไว้เป็นประจำเพื่อให้แน่ใจว่าไม่ได้ฝังโดยเจตนาร้าย
ไฮไลท์:
John Rehberg ค้นพบช่องโหว่ใน ChatGPT ที่ทำให้แฮกเกอร์สามารถปลูกฝังข้อมูลเท็จในความทรงจำของผู้ใช้ได้
ช่องโหว่นี้สามารถขโมยข้อมูลที่ผู้ใช้ป้อนอย่างถาวรผ่านฟังก์ชันหน่วยความจำระยะยาว
ผู้ใช้จำเป็นต้องตรวจสอบหน่วยความจำที่เก็บไว้เป็นประจำเพื่อป้องกันการฝังข้อมูลอันเป็นเท็จ
โดยรวมแล้ว ช่องโหว่ใน ChatGPT นี้เตือนเราอีกครั้งว่าความปลอดภัยของเทคโนโลยีปัญญาประดิษฐ์เป็นสิ่งสำคัญ และกำหนดให้นักพัฒนาและผู้ใช้ต้องทำงานร่วมกันเพื่อรับรองความปลอดภัยของข้อมูลผู้ใช้ เครื่องมือแก้ไข Downcodes ขอแนะนำให้คุณใช้ ChatGPT ด้วยความระมัดระวังและใส่ใจกับการอัปเดตความปลอดภัยอย่างทันท่วงทีเพื่อหลีกเลี่ยงความเสี่ยงที่อาจเกิดขึ้น