https://www.informationsecurity.com.tw/seminar/2024_Business/
https://www.informationsecurity.com.tw/seminar/2024_Business/

新聞

Google Vertex AI 驚現 ModeLeak 漏洞 可提權竊取模型資料

2024 / 11 / 15
編輯部
Google Vertex AI 驚現 ModeLeak 漏洞 可提權竊取模型資料
Palo Alto Networks(簡稱 Palo Alto)近日發布一份重要安全報告,揭露 Google Vertex AI 平台存在兩個嚴重漏洞,統稱為「ModeLeak」。該漏洞可能導致權限提升及模型資料外洩,使攻擊者有機會存取平台上的敏感機器學習(ML)和大型語言模型(LLM)資料。

自訂作業提權漏洞

研究團隊指出,第一個漏洞存在於 Vertex AI 的自訂作業(Custom Jobs)功能中。攻擊者可透過操縱 Vertex AI Pipelines 中的自訂作業權限,取得遠超預期的存取範圍,包括列舉、讀取和匯出 Google 雲端儲存空間(Cloud Storage)和 BigQuery 資料集的權限。

「透過操縱自訂作業管道,我們發現了一個權限升級路徑,讓我們能存取遠超出預期範圍的資源,」研究團隊在報告中指出。更令人擔憂的是,研究人員成功演示了如何透過自訂程式碼注入,植入反向 Shell 以建立後門。這個問題源於系統賦予服務代理(Service Agent)過於寬鬆的預設權限。

模型感染機制

第二個漏洞則涉及模型外洩風險。攻擊者可將惡意模型上傳至公開儲存庫,一旦該模型被部署,就能滲透環境中的其他敏感模型,形成模型間的感染途徑。研究團隊警告,這種手法特別危險,因為一旦惡意模型部署後,就會滲透到專案中所有其他 ML 和 LLM 模型,包括敏感的微調模型,攻擊者可能竊取儲存在微調適配器(Fine-tuning Adapters)中的專有資訊。

已完成修補

Palo Alto 已將這些發現通報 Google,Google也已完成修補,確保 Google Cloud Platform(GCP)上 Vertex AI 的安全性。為預防類似威脅,Palo Alto 建議企業應實施嚴格的存取控制機制,同時加強監控模型部署流程並定期稽核權限設定。Palo Alto強調,若這些漏洞遭惡意利用,特別是在涉及敏感資料驅動模型訓練和調校的環境中,可能造成廣泛的嚴重後果。

隨著 AI 應用日益普及,各大企業紛紛導入機器學習和大型語言模型,ModeLeak 漏洞的發現再次提醒我們,在追求 AI 創新的同時,資安防護的重要性不容忽視。企業在部署 AI 服務時,不僅要關注模型效能,更要嚴格把關存取權限和部署流程,方能確保 AI 資產的安全。

本文轉載自SecurityOnline.info。