新聞

AI 機器人攻擊面現形:VicOne 實證 VLA/VLM 漏洞可操控自主系統行為

2026 / 05 / 07
編輯部
AI 機器人攻擊面現形:VicOne 實證 VLA/VLM 漏洞可操控自主系統行為
隨著 AI 模型開始驅動機器人、自主巡邏系統與醫療服務設備,資安威脅的邊界已從數位空間延伸至實體世界。車用資安公司 VicOne 近期公開一項 Physical AI(實體 AI)攻擊研究,透過實證展演說明,視覺語言行動模型(Vision-Language-Action Model,VLA)與視覺語言模型(Vision-Language Model,VLM)在特定條件下可被操控,導致自主系統做出錯誤但看似合理的判斷,進而影響機器人的實際行為。

VLA/VLM 成新攻擊目標,AI 判斷鏈出現可利用缺口

VicOne 的研究指出,當 AI 模型接收到經過特定設計的視覺輸入、環境干擾或指令脈絡時,其感知與決策過程可能被引導至非預期結果。這類攻擊不需要入侵底層系統,而是針對 AI 模型本身的推理邏輯施加影響,使系統在未察覺異常的情況下執行錯誤指令。

對部署於公共空間、醫療場域或工業環境的自主系統而言,此類攻擊的潛在影響不僅止於資料外洩,更可能直接危及人員安全與場域運作穩定性。

為協助產業系統性評估風險,VicOne 提出「五大 Safety 風險 × 五條 Security 攻擊路徑」分析框架。此框架聚焦於 AI 感知、決策與行為鏈中的潛在攻擊面,協助企業在部署前識別可能影響系統穩定性、可預期性與安全邊界的風險,並提前建立對應的防護策略。

模擬環境驗證:部署前即可測試安全邊界

VicOne 同步展示基於 NVIDIA Isaac Sim 建構的模擬測試環境,說明如何在實體設備正式部署前,模擬多種攻擊情境與環境變化,驗證 AI 系統在不同條件下的行為穩定性與安全邊界。

VicOne 執行長鄭奕立表示,汽車產業是少數已長期面對資安(security)與安全(safety)交會挑戰的領域。當 AI 開始控制機器人、自主系統與各類實體設備,類似挑戰正在快速擴大。VicOne 正將在汽車資安領域累積的研究與實務經驗,延伸至 Physical AI 場景,協助產業在 AI 進入真實世界前,更早發現、驗證並降低可能影響安全邊界的資安風險。

這項展示反映 VicOne 對 Physical AI 安全的核心主張:當 AI 開始控制機器人與自主系統,安全不應停留在事後偵測,而應前移至設計、測試與部署前驗證階段。

台灣機器人業者跟進,資安驗證納入部署流程

VicOne 亦與台灣在地機器人業者展開合作,將上述安全驗證框架落地至實際應用場域。

專注公共與敏感場域自主巡邏的帝濶智慧科技,以本地端影像辨識與決策運算架構,降低資料外洩風險,並與 VicOne 合作將資安驗證流程前移至部署前,確保系統進入真實環境前已通過行為穩定性測試。

帝濶智慧科技總經理鄒耀東表示,公共與敏感場域的客戶在導入自主巡邏系統時,隱私、合規與行為穩定性必須同步被驗證,而不是出事後才補救。與 VicOne 的合作,是帝濶對客戶的具體承諾,讓每一套部署上線的系統都是經過驗證、可預期、可信賴的。

醫療 AI 機器人業者長聯科技則以生成式 AI 與大型語言模型為技術核心,其產品愛寶提供院內導覽與病患衛教諮詢服務。VicOne 與長聯科技將共同探索醫療 AI 機器人在模型安全與歐盟網路韌性法案(CRA)法規要求下的防護需求。

長聯科技商務營運總監蔡述先表示,醫療與長照場域需要高度穩定、可靠且合規的 AI 服務。透過與 VicOne 的合作,希望強化愛寶在 AI 模型安全與資安合規上的準備,讓醫療 AI 機器人在實際場域中更安心地被部署與使用。

Physical AI 安全驗證,成規模化部署前提

隨著 AI 機器人逐步進入公共空間、醫療照護、校園與企業場域,Physical AI 安全驗證將成為產業規模化部署不可迴避的前提條件。VicOne 的研究與合作模式,呈現了一條可供參考的路徑:從攻擊面分析到模擬測試,再到部署前驗證,將資安能量系統性地整合進 AI 系統的生命週期管理之中。

對於正在評估或已著手部署 AI 自主系統的企業而言,此框架提供了一個可操作的安全基線,協助在技術落地之前,先行建立可信賴的安全基礎。