根據加州大學聖地牙哥分校於 2025 年 3 月發布的研究報告指出,
AI 在圖靈測試中已達到 73% 的通過率,超越人類表現。科技創新發展一日千里,即便專家也難以完全掌握,而 AI 在各領域仍蘊含無限潛力。
生成式 AI 市場規模在 2024 年已達 360.6 億美元,預計到 2030 年將激增至 3,560 億美元。然而,當企業爭相導入 AI 時,卻常常忽視了資安考量。
這種快速導入趨勢為資安威脅製造了可乘之機。對資安託管服務供應商(MSSP)而言,掌握 AI 的資安盲點不僅是一大挑戰,更是提供加值服務的策略性機會。研究顯示,組織在導入 AI 與自動化進行資安防護後,相較於未導入者,資安事故成本平均降低 222 萬美元。
潛伏性AI資安漏洞
潛伏性資安漏洞是一種存在於開源 AI 程式庫與模型中的新型資安弱點。這類弱點與傳統資安漏洞最大的不同在於缺乏 CVE 漏洞編號,導致一般資安掃描工具無法偵測,使 MSSP 的客戶面臨更高的威脅風險。
組織若過於專注開發進度而忽視資安考量,容易無意間產生資安死角,為駭客創造可趁之機。由於傳統資安工具難以識別此類威脅,這正是 MSSP 能夠提供特殊監控與偵測服務的最佳時機。
這類潛伏性漏洞曾導致多個 AI 框架發生重大資安事件,包括
PyTorch、
Keras、
Ray 和
Jinja2 等。
資料外洩與資訊暴露風險
在 AI 資安領域中,MSSP 業者必須因應多項高風險威脅,包括
資料外洩、
資訊暴露、
運算資源劫持、
社交工程攻擊及
供應鏈風險。而
AI 系統特別容易遭受對抗性輸入與 API 操縱攻擊,駭客可藉由這些弱點從暴露的 AI 端點竊取敏感資料。以 2025 年 3 月的資安事件為例,資安研究人員發現多個 AI 聊天機器人因系統配置錯誤導致使用者對話內容外洩,尤其在角色扮演類應用中最為嚴重。在調查的 400 個系統中,有 117 個出現資料外洩情況,導致敏感對話內容暴露。
與 AI 系統相關的資料外洩情境包括非法爬蟲攻擊、訓練資料未妥善保護,以及模型反推攻擊等。
建議防護措施:MSSP 業者應定期檢測及驗證暴露的 AI 端點,找出可能的錯誤配置、資料外洩和非預期的輸出暴露問題。同時,應強化既有的 DLP 防護機制,以監控與大型語言模型(LLM)和AI服務的互動。
運算資源劫持 (LLMjacking)
LLMjacking 是指駭客透過非法手段劫持 AI 基礎設施並執行未經授權的操作。此類攻擊除了增加營運成本、降低系統效能外,還可能產生資安死角。
常見的攻擊手法包括利用 AI 運算資源進行挖礦、劫持模型進行推理運算,以及濫用 AI 管理工具或模型伺服器中的零時差漏洞。
建議防護措施:MSSP 業者應監控 API 呼叫量的異常與使用量突增情況。建立 AI 模型的正常行為基準值,並整合 GPU/TPU 使用量的遙測資料,以及早發現異常。
AI驅動的社交工程攻擊
2023 年至 2024 年間,AI 輔助的釣魚攻擊激增 1200%。過去我們能靠不自然的文法或語句輕易識別釣魚郵件,但這個時代已經結束。更令人憂心的是
深偽技術(Deepfake)的突破使駭客現在能製作出極為逼真的影像。更有真實案例中,某公司財務人員因無法識破深偽影像,在參加看似合法的視訊會議時遭到詐騙,造成公司損失約新台幣 8 億元(2,500萬美元)。
建議防護措施:MSSP 業者應開發專門的資安意識培訓課程,教導員工辨識深偽影音及AI生成的釣魚電郵。
AI供應鏈安全風險
仰賴第三方 AI 元件存在重大資安風險,尤其當這些元件包含未被發現的漏洞或惡意後門時。駭客傾向攻擊被廣泛使用的框架、資料集和外掛生態系統,因為一旦成功滲透,影響便會迅速擴散至多個組織與產業。2023 年,資安研究人員發現駭客在 HuggingFace 平台上傳了帶有資料竊取後門的公開模型。而
AI 供應鏈常見的攻擊包括遭竄改的資料集、框架漏洞(如 TensorFlow、PyTorch 或 Ray 等函式庫),以及不安全的第三方 AI 外掛程式。
建議防護措施:MSSP 業者應建立並持續監控 AI 開發管線的軟體物料清單(SBOM),確實涵蓋所有模型、外掛與函式庫等組件。
延伸閱讀:MSSP 資安防護必備:API 安全防護工具全覽
MSSP之資安策略建議
- AI專用即時監控與遙測:
部署持續監控 AI 系統異常行為的解決方案,即便是未取得 CVE 漏洞編號的攻擊也能偵測並因應。MSSP 需針對 AI 特有的遙測資料建立偵測邏輯。
執行建議:提供 LLM 防火牆與提示詞行為分析作為託管服務。
- 供應鏈安全評估:
建立評估客戶環境中第三方 AI 元件、函式庫和框架安全性的能力。MSSP 應實施沙箱機制,以限制開源函式庫可能帶來的風險。
執行建議:運用威脅情報、靜態分析和使用量遙測的綜合資訊,為第三方模型和外掛建立「信任評分」。
- AI資安事件應變:
制定AI資安事件專用的應變標準作業程序。MSSP 可善用跨客戶的資安可視性,在 AI 攻擊模式擴散前及早識別。
執行建議:為客戶的管理層和技術團隊提供 AI 專用資安演練。
- 持續性威脅情報:
組建專職 AI 資安研究團隊,追蹤熱門 AI 框架的新興威脅和漏洞。監控開源 AI 平台(如Hugging Face、GitHub)上的可疑或帶有後門的模型。此類情報可用於主動威脅獵捕和優化偵測規則。
- 法規遵循諮詢:
擔任值得信賴的顧問,協助客戶因應 AI 資安法規要求,包括歐盟 AI 法案和 NIST AI 風險管理框架。協助確保客戶的 AI 模型文件符合這些框架規範。
MSSP的獨特優勢
AI 的複雜性為 MSSP 創造了獨特機會,主要因為大多數組織缺乏內部 AI 資安專業知識。雖然約八成的 IT 主管自認已做好因應 AI 風險的準備,但實際上只有半數技術人員對此具有信心。
具前瞻性思維的 MSSP 應將 AI 資安視為高階資安託管服務的核心,善用其跨客戶的整體資安可視性,以偵測新興威脅、解決隱藏性資安弱點,並協助客戶安全導入 AI 技術。
全球 AI 資安市場預計將從 2023 年的 224 億美元,大幅成長至 2030 年的 1,338 億美元。現階段投資 AI 專業能力的 MSSP,不僅能有效保護客戶,更能在下一代資安領域建立領導地位。
本文轉載自 MSSPAlert。