近期,網路安全領域出現新的威脅:惡意機器學習模型。研究人員在Hugging Face平台上發現了100個此類模型,這些模型可能被用於在使用者裝置上註入惡意程式碼,利用PyTorch等技術執行惡意操作。這凸顯了AI安全領域面臨的嚴峻挑戰,也提醒我們對AI模型的安全性保持高度警覺。 惡意AI模型的出現不僅影響使用者資料安全,也可能造成更廣泛的系統性風險,需要業界共同努力,加強AI模型的安全審核和防護機制。
研究人員在Hugging Face AI 平台發現100 個惡意機器學習模型,可能允許攻擊者在使用者機器上註入惡意程式碼。惡意AI 模型利用PyTorch 等方法執行惡意程式碼,加劇安全風險。為降低風險,AI 開發者應使用新工具來提高AI 模型安全性。發現的惡意模型凸顯了惡意AI 模型對使用者環境的風險,需要持續警惕和加強安全性。AI安全問題日益突出,需要AI開發者、平台提供者和使用者共同努力,建立更完善的安全機制,共同因應惡意AI模型帶來的風險。 加強模型的安全性審查,並開發更有效的偵測和防禦技術,才能保障使用者安全,促進AI技術的健康發展。只有多方協作,才能建構一個更安全可靠的AI生態環境。