新聞

美國CISA聯合多國發布「AI在關鍵基礎設施OT環境的資安指引」

2025 / 12 / 09
編輯部
美國CISA聯合多國發布「AI在關鍵基礎設施OT環境的資安指引」
美國網路安全暨基礎設施安全局(CISA)聯合多國資安機構,於 12 月初發布一份 25 頁的資安指引,針對人工智慧(AI)技術在營運科技(OT)環境中的安全部署提供建議。撰寫機構包括美國 CISA、聯邦調查局(FBI)、國家安全局(NSA)人工智慧安全中心,以及澳洲、加拿大、德國、荷蘭、紐西蘭、英國等七國資安機構。

AI 與 OT 的雙重挑戰

AI 和 OT 環境各自都是高度敏感的攻擊面。AI 因不斷出現新的攻擊技術而成為主要目標,OT 則因應用於關鍵基礎設施和工業環境而備受關注。當兩者結合時,風險更加複雜。

指引指出,大型語言模型(LLM)部署雖可提升效率和決策品質,但將 AI 整合到關鍵 OT 環境中也帶來重大風險,例如 OT 流程模型隨時間漂移,或安全流程被繞過等問題。

OT 廣泛應用於製造業、能源、國防、水利、醫療等領域,這些場域一旦遭受攻擊,後果極為嚴重。在 OT 環境中,AI 用於分析關鍵數據、識別 SCADA 系統的異常訊號、為操作人員提供系統建議,以及優化工作流程。

模型漂移與確定性系統的衝突

資安廠商 Darktrace 的副總裁暨現場資訊安全長 Nathaniel Jones 表示,AI 模型可能隨時間逐漸偏離原始訓練假設。當營運數據改變時,模型可能提供不再符合安全限制的建議。更重要的是,機率性的 AI 輸出會為確定性且高度特定的 OT 系統帶來不確定性。

除了模型漂移,AI 的風險還包括:攻擊者透過自然語言提示讓 LLM 洩露敏感資料利用 AI 代理程式(AI agent)執行遠端程式碼執行(RCE)攻擊,甚至引入原本不存在的新漏洞。AI 幻覺(hallucination)也是眾所周知的風險。

資安業者 Fortinet 的 OT 解決方案資深總監 Richard Springer 指出,目前 AI 在 OT 環境的大規模部署仍然有限。多數組織仍專注於基礎資安工作,如網路區隔、資產可視性、修補程式,以及基本的偵測與回應。對許多營運商而言,生成式 AI(GenAI)不是「還沒準備好」,而是「永遠不會」採用。但他也認為,業界普遍同意 GenAI 最終會扮演重要角色,協助加速流程處理、診斷、預測性維護,以及管理日益複雜的環境。

四大核心建議

指引提出四大面向的建議,協助組織安全地將 AI 整合到 OT 環境:

第一,教育訓練與風險認知。
OT 組織應教育人員了解 AI 技術、相關風險,以及從一開始就將資安納入考量的方法。組織應評估 AI 的商業使用案例,確認技術是否真正適合特定需求,而非盲目追逐新技術。雖然 AI 在正確情境下能帶來效益,但避免引入不必要的風險往往更為明智。

第二,資料管理與存取控制。
組織需處理資料相關挑戰,包括了解資料儲存位置,並確保模型只能存取必要資料。指引特別強調保護敏感的 OT 資料,包括工程配置資訊(如示意圖和資產清單)以及短暫性資料(如流程測量值),這些資料在用於訓練 AI 模型時可能遭到暴露。

第三,治理框架與法規遵循
組織應建立明確的治理和保證框架,包括制定政策和問責結構、將 AI 整合到現有資安框架、進行徹底測試和評估,以及因應法規遵循要求。組織應定期稽核,並遵守不斷演進的國際 AI 標準。

第四,監督機制與故障安全設計。
OT 組織應在 AI 部署中嵌入監督和故障安全機制。這包括建立適當的監控機制(如人在迴路的決策機制,human-in-the-loop),並設計讓 AI 能夠在不中斷關鍵營運的情況下「優雅地失效」。

OT 廠商的 AI 嵌入趨勢

指引也注意到 OT 廠商越來越常將 AI 直接嵌入設備中,因此建議營運商要求廠商提供 AI 功能、軟體供應鏈和資料使用政策的透明度。整合挑戰包括系統複雜性、雲端安全風險、延遲限制,以及與舊有 OT 系統的相容性。

營運商應在受控環境中測試、維持人為監督,並定期更新 AI 模型,以防止錯誤並維持安全性。人為監督是 AI 驅動 OT 系統的核心:監控 AI 輸出、偵測異常、維護故障安全機制,對確保營運可靠性至關重要。

標準制定的重要警示

資安業者 Nozomi Networks 的網路安全策略總監 Chris Grove 表示,CISA 的聯合指引強化了 OT 環境的核心現實:AI 能加速決策,但任何影響關鍵流程的技術都必須謹慎且有紀律地部署。

專家認為,這份指引及其涉及的全球協作,反映出 AI 在 OT 環境中是系統性風險,而非小眾議題。指引明確將 LLM 列為 OT 環境中的高風險技術,因為 LLM 可能產生幻覺,為操作人員提供錯誤的決策資訊。這在新安全標準(如 NERC 的 CIP-015)要求使用行為分析和異常偵測時尤其關鍵。

CISA 表示,將 AI 整合到 OT 環境中既帶來機會也伴隨風險。關鍵基礎設施的擁有者和營運商應遵循這些原則,持續監控、驗證和改進 AI 模型,才能在控制重要公共服務的 OT 環境中實現 AI 的平衡整合。

防護建議重點

關鍵基礎設施營運商在部署 AI 時應注意以下要點:
  • 了解 AI 風險,並在人員間推廣安全開發實務
  • 評估 AI 在 OT 環境的使用,包括資料安全和整合挑戰
  • 建立治理框架,進行持續的模型測試和法規遵循
  • 嵌入安全實務,維持透明度並整合事件回應機制
  • 在受控環境中測試,並維持人為監督
  • 定期更新 AI 模型,以防止錯誤並確保安全性

本文轉載自 DarkReading、InfosecurityMagazine。