歡迎登入資安人
若您還不是會員,請點選下方加入會員
忘記密碼
加入資安人會員
登入
新聞
觀點
專題
解決方案
活動
訂閱電子報
資安人粉絲團
聯絡我們
關於我們
合作詢問
隱私權政策
香港商法蘭克福展覽有限公司台灣傳媒分公司
110 台北市信義區市民大道六段288號8F
886-2-8729-1099
新聞
觀點
專題
解決方案
活動
訂閱電子報
登入
登入
訂閱電子報
新聞
觀點
專題
解決方案
活動
新聞
您現在位置 : 首頁 >
新聞
Google Vertex AI 驚現 ModeLeak 漏洞 可提權竊取模型資料
2024 / 11 / 15
編輯部
Palo Alto Networks(簡稱 Palo Alto)近日發布一份重要安全報告,揭露 Google Vertex AI 平台存在兩個嚴重漏洞,統稱為「
ModeLeak
」。該漏洞可能導致權限提升及模型資料外洩,使攻擊者有機會存取平台上的敏感機器學習(ML)和大型語言模型(LLM)資料。
自訂作業提權漏洞
研究團隊指出,第一個漏洞存在於 Vertex AI 的自訂作業(Custom Jobs)功能中。攻擊者可透過操縱 Vertex AI Pipelines 中的自訂作業權限,取得遠超預期的存取範圍,包括列舉、讀取和匯出 Google 雲端儲存空間(Cloud Storage)和 BigQuery 資料集的權限。
「透過操縱自訂作業管道,我們發現了一個權限升級路徑,讓我們能存取遠超出預期範圍的資源,」研究團隊在報告中指出。更令人擔憂的是,研究人員成功演示了如何透過自訂程式碼注入,植入反向 Shell 以建立後門。這個問題源於系統賦予服務代理(Service Agent)過於寬鬆的預設權限。
模型感染機制
第二個漏洞則涉及模型外洩風險。攻擊者可將惡意模型上傳至公開儲存庫,一旦該模型被部署,就能滲透環境中的其他敏感模型,形成模型間的感染途徑。研究團隊警告,這種手法特別危險,因為一旦惡意模型部署後,就會滲透到專案中所有其他 ML 和 LLM 模型,包括敏感的微調模型,攻擊者可能竊取儲存在微調適配器(Fine-tuning Adapters)中的專有資訊。
已完成修補
Palo Alto 已將這些發現通報 Google,Google也已完成修補,確保 Google Cloud Platform(GCP)上 Vertex AI 的安全性。
為預防類似威脅,Palo Alto 建議企業應實施嚴格的存取控制機制,同時加強監控模型部署流程並定期稽核權限設定。Palo Alto強調,若這些漏洞遭惡意利用,特別是在涉及敏感資料驅動模型訓練和調校的環境中,可能造成廣泛的嚴重後果。
隨著 AI 應用日益普及,各大企業紛紛導入機器學習和大型語言模型,ModeLeak 漏洞的發現再次提醒我們,在追求 AI 創新的同時,資安防護的重要性不容忽視。企業在部署 AI 服務時,不僅要關注模型效能,更要嚴格把關存取權限和部署流程,方能確保 AI 資產的安全。
本文轉載自SecurityOnline.info。
AI資安
ModeLeak
權限提升
反向 Shell
最新活動
2025.06.25
資安人講堂:構築製造業資安核心 – 零信任架構的落地實戰
2025.06.24
漢昕科技X線上資安黑白講【檔案安全新防線,資料外洩零容忍——企業資安全面升級】2025/6/24全面開講!
2025.06.25
拆解 ISO 27001 報價公式:控好預算、加速資安合規
2025.06.27
以資安及風險角度重塑企業韌性
2025.06.27
以資安及風險角度重塑企業韌性
2025.07.09
AI應用下的資安風險
看更多活動
大家都在看
趨勢科技與Palo Alto Networks 發布多項重要安全更新
Microsoft 推出 2025年6月 Patch Tuesday 每月例行更新修補包
Mirai 殭屍網路鎖定 Wazuh 開源資安平台漏洞發動攻擊
大規模暴力破解攻擊鎖定 Apache Tomcat 管理介面
Qilin 勒索軟體集團利用 Fortinet 漏洞發動攻擊 已影響全球 310 家機構
資安人科技網
文章推薦
Jamf發表AI驅動的Apple裝置管理與強化資安功能
EchoLeak 揭示新型態的零點擊AI資安漏洞「LLM範疇突破」
光盾資訊促台日金融資安高層關鍵對話