近日,Downcodes小編獲悉,安全研究員約翰·瑞貝格發現ChatGPT存在一個嚴重漏洞,該漏洞可能允許駭客在用戶的長期記憶中植入虛假資訊和惡意指令,從而永久竊取用戶資料。 OpenAI最初對此漏洞反應遲緩,但面對研究員提供的概念驗證攻擊範例後,最終發布了部分修復措施。此漏洞利用了ChatGPT的長期會話記憶功能,攻擊者可透過間接提示注入的方式植入假記憶,例如讓ChatGPT相信使用者年齡、居住地等資訊均為虛假。
最近,安全研究員約翰・瑞貝格(Johann Rehberger)發現了一個關於ChatGPT 的漏洞,這個漏洞可能讓駭客在使用者的長期記憶中植入虛假的資訊和惡意指令。
雖然他向OpenAI 報告了這個問題,但不幸的是,該公司並沒有給予足夠重視,迅速關閉了相關調查,聲稱這並不算是安全問題。
面對這樣的情況,瑞貝格決定不放棄,開發了一個概念驗證的攻擊範例,利用這個漏洞可以將使用者的所有輸入資料永久竊取。 OpenAI 看到這一情況後,於本月發布了一部分修復措施,試圖解決這個問題。
那麼,這個漏洞是如何產生的呢?它利用了ChatGPT 的長期會話記憶功能,這個功能自今年2月開始測試,9月正式推出。長期記憶可以儲存使用者先前的對話訊息,並在之後的對話中作為上下文使用。也就是說,ChatGPT 能夠記住使用者的年齡、性別、興趣愛好等,這樣使用者就不需要每次都重複輸入這些資訊。
然而,瑞貝格在推出不久後就發現,透過一種稱為間接提示注入的方式,攻擊者可以創造並儲存虛假的記憶。
他展示如何讓ChatGPT 相信某個用戶102歲,住在《駭客任務》中,並堅信地球是平的。這些虛假的資訊可以透過不安全的檔案儲存(如Google Drive 或Microsoft OneDrive)、上傳惡意圖片或造訪像Bing 這樣的可疑網站來植入。

簡報文件:https://embracethered.com/blog/posts/2024/chatgpt-hacking-memories/
瑞貝格在5月向OpenAI 私下報告了這個漏洞,但該公司在同月就關閉了報告。一個月後,他又提交了一份新聲明,附上了一個概念驗證範例,能夠讓ChatGPT 的macOS 應用程式將使用者的輸入和輸出逐字發送到他控制的伺服器。只需目標用戶讓ChatGPT 訪問一個包含惡意圖片的鏈接,從此之後,所有的對話內容都會洩露到攻擊者的網站上。
「這真的很有趣,因為這個攻擊是持久性的,」 瑞貝格在演示時說道。 “提示注入將記憶寫入了ChatGPT 的長期存儲中,新的對話仍會繼續竊取數據。”
雖然OpenAI 已經實施了一部分修復措施,以防止記憶被用作竊取資料的手段,但瑞貝格提醒用戶,仍然要注意不受信任內容可能帶來的提示注入攻擊。他建議使用者在使用ChatGPT 時,要仔細觀察輸出內容,看看是否有新的記憶被添加,並定期檢查已儲存的記憶,確保沒有受到惡意植入。
劃重點:
約翰・瑞貝格發現ChatGPT 漏洞,駭客可在使用者記憶中植入假訊息。
? 此漏洞透過長期記憶功能,能永久竊取使用者輸入資料。
使用者需定期檢查儲存的記憶,防止虛假資訊的植入。
總而言之, ChatGPT 的這個漏洞再次提醒我們,人工智慧技術的安全性至關重要,需要開發人員和使用者共同努力,才能確保使用者資訊安全。 Downcodes小編建議大家謹慎使用ChatGPT,並及時注意安全更新,以避免潛在風險。