歡迎登入資安人
若您還不是會員,請點選下方加入會員
忘記密碼
加入資安人會員
登入
新聞
觀點
專題
解決方案
活動
訂閱電子報
資安人粉絲團
聯絡我們
關於我們
合作詢問
隱私權政策
香港商法蘭克福展覽有限公司台灣傳媒分公司
110 台北市信義區市民大道六段288號8F
886-2-8729-1099
新聞
觀點
專題
解決方案
活動
訂閱電子報
登入
登入
訂閱電子報
新聞
觀點
專題
解決方案
活動
新聞
您現在位置 : 首頁 >
新聞
Google Vertex AI 驚現 ModeLeak 漏洞 可提權竊取模型資料
2024 / 11 / 15
編輯部
Palo Alto Networks(簡稱 Palo Alto)近日發布一份重要安全報告,揭露 Google Vertex AI 平台存在兩個嚴重漏洞,統稱為「
ModeLeak
」。該漏洞可能導致權限提升及模型資料外洩,使攻擊者有機會存取平台上的敏感機器學習(ML)和大型語言模型(LLM)資料。
自訂作業提權漏洞
研究團隊指出,第一個漏洞存在於 Vertex AI 的自訂作業(Custom Jobs)功能中。攻擊者可透過操縱 Vertex AI Pipelines 中的自訂作業權限,取得遠超預期的存取範圍,包括列舉、讀取和匯出 Google 雲端儲存空間(Cloud Storage)和 BigQuery 資料集的權限。
「透過操縱自訂作業管道,我們發現了一個權限升級路徑,讓我們能存取遠超出預期範圍的資源,」研究團隊在報告中指出。更令人擔憂的是,研究人員成功演示了如何透過自訂程式碼注入,植入反向 Shell 以建立後門。這個問題源於系統賦予服務代理(Service Agent)過於寬鬆的預設權限。
模型感染機制
第二個漏洞則涉及模型外洩風險。攻擊者可將惡意模型上傳至公開儲存庫,一旦該模型被部署,就能滲透環境中的其他敏感模型,形成模型間的感染途徑。研究團隊警告,這種手法特別危險,因為一旦惡意模型部署後,就會滲透到專案中所有其他 ML 和 LLM 模型,包括敏感的微調模型,攻擊者可能竊取儲存在微調適配器(Fine-tuning Adapters)中的專有資訊。
已完成修補
Palo Alto 已將這些發現通報 Google,Google也已完成修補,確保 Google Cloud Platform(GCP)上 Vertex AI 的安全性。
為預防類似威脅,Palo Alto 建議企業應實施嚴格的存取控制機制,同時加強監控模型部署流程並定期稽核權限設定。Palo Alto強調,若這些漏洞遭惡意利用,特別是在涉及敏感資料驅動模型訓練和調校的環境中,可能造成廣泛的嚴重後果。
隨著 AI 應用日益普及,各大企業紛紛導入機器學習和大型語言模型,ModeLeak 漏洞的發現再次提醒我們,在追求 AI 創新的同時,資安防護的重要性不容忽視。企業在部署 AI 服務時,不僅要關注模型效能,更要嚴格把關存取權限和部署流程,方能確保 AI 資產的安全。
本文轉載自SecurityOnline.info。
AI資安
ModeLeak
權限提升
反向 Shell
最新活動
2024.12.19
2024 企業資安前瞻論壇 : 迎向複雜資安威脅的新時代
看更多活動
大家都在看
企業 VPN 更新機制遭攻破,研究人員揭露權限提升攻擊鏈
重大供應鏈攻擊又一樁! 美國供應鏈管理軟體大廠 Blue Yonder 遭勒索攻擊,星巴克等企業營運受阻
Matrix 殭屍網路肆虐全球,藉 IoT 設備發動大規模 DDoS 攻擊
TWNIC報告:51.22%受訪者表示不信任政府有應對網路攻擊的能力
中國駭客組織「鹽颱風」利用新型 GhostSpider 後門程式攻擊電信業者
資安人科技網
文章推薦
Winos4.0透過遊戲應用程式傳播發起威脅活動
新型釣魚攻擊手法:利用損壞的 Word 文件躲避資安檢測
Palo Alto Networks 預測 2025 年資安趨勢:平台整合與AI防禦成關鍵