歡迎登入資安人
若您還不是會員,請點選下方加入會員
忘記密碼
加入資安人會員
登入
新聞
觀點
專題
解決方案
活動
訂閱電子報
資安人粉絲團
聯絡我們
關於我們
合作詢問
隱私權政策
香港商法蘭克福展覽有限公司台灣傳媒分公司
110 台北市信義區市民大道六段288號8F
886-2-8729-1099
新聞
觀點
專題
解決方案
活動
訂閱電子報
登入
登入
訂閱電子報
新聞
觀點
專題
解決方案
活動
新聞
您現在位置 : 首頁 >
新聞
Google Vertex AI 驚現 ModeLeak 漏洞 可提權竊取模型資料
2024 / 11 / 15
編輯部
Palo Alto Networks(簡稱 Palo Alto)近日發布一份重要安全報告,揭露 Google Vertex AI 平台存在兩個嚴重漏洞,統稱為「
ModeLeak
」。該漏洞可能導致權限提升及模型資料外洩,使攻擊者有機會存取平台上的敏感機器學習(ML)和大型語言模型(LLM)資料。
自訂作業提權漏洞
研究團隊指出,第一個漏洞存在於 Vertex AI 的自訂作業(Custom Jobs)功能中。攻擊者可透過操縱 Vertex AI Pipelines 中的自訂作業權限,取得遠超預期的存取範圍,包括列舉、讀取和匯出 Google 雲端儲存空間(Cloud Storage)和 BigQuery 資料集的權限。
「透過操縱自訂作業管道,我們發現了一個權限升級路徑,讓我們能存取遠超出預期範圍的資源,」研究團隊在報告中指出。更令人擔憂的是,研究人員成功演示了如何透過自訂程式碼注入,植入反向 Shell 以建立後門。這個問題源於系統賦予服務代理(Service Agent)過於寬鬆的預設權限。
模型感染機制
第二個漏洞則涉及模型外洩風險。攻擊者可將惡意模型上傳至公開儲存庫,一旦該模型被部署,就能滲透環境中的其他敏感模型,形成模型間的感染途徑。研究團隊警告,這種手法特別危險,因為一旦惡意模型部署後,就會滲透到專案中所有其他 ML 和 LLM 模型,包括敏感的微調模型,攻擊者可能竊取儲存在微調適配器(Fine-tuning Adapters)中的專有資訊。
已完成修補
Palo Alto 已將這些發現通報 Google,Google也已完成修補,確保 Google Cloud Platform(GCP)上 Vertex AI 的安全性。
為預防類似威脅,Palo Alto 建議企業應實施嚴格的存取控制機制,同時加強監控模型部署流程並定期稽核權限設定。Palo Alto強調,若這些漏洞遭惡意利用,特別是在涉及敏感資料驅動模型訓練和調校的環境中,可能造成廣泛的嚴重後果。
隨著 AI 應用日益普及,各大企業紛紛導入機器學習和大型語言模型,ModeLeak 漏洞的發現再次提醒我們,在追求 AI 創新的同時,資安防護的重要性不容忽視。企業在部署 AI 服務時,不僅要關注模型效能,更要嚴格把關存取權限和部署流程,方能確保 AI 資產的安全。
本文轉載自SecurityOnline.info。
AI資安
ModeLeak
權限提升
反向 Shell
最新活動
2025.11.12
2025上市櫃高科技製造業資安論壇
2025.11.14
2026必須關注的資安大趨勢
2025.10.27
關鍵基礎設施-電力系統資安系列課程III(沙崙 X 成大 電驛系統)
2025.10.28
產業資安防護及案例分享研討會 精準抗勒索 × 供應鏈ai無縫防護 :智慧製造資安新解
2025.10.31
【雲端安全入門】CCSK 雲端安全知識證照培訓班
看更多活動
大家都在看
微軟10月更新同時修補史上最嚴重 ASP.NET Core 漏洞與 Windows 本地連線錯誤
微軟緊急限制 Edge 瀏覽器 IE 模式 駭客已利用零時差漏洞發動攻擊
SonicWall 資料外洩影響擴大:從 5% 暴增至 100% 雲端備份用戶全受害
台灣是重災區!受害數持續攀升,企業應變「哪吒攻擊」僅有數小時
台廠四零四科技 Moxa 修補可能導致系統完全淪陷的硬編碼憑證漏洞
資安人科技網
文章推薦
AI 安全成 2026 首要任務:Gartner 預測逾半數企業將部署專用安全平台
YouTube 成惡意軟體新戰場 「Ghost Network」分工精細躲避偵測長達四年
Shadow Escape 零點擊攻擊威脅數兆筆個資 ChatGPT、Claude、Gemini 全面受影響