Palo Alto Networks 發布《2025 生成式 AI 現況報告》,揭示 2024 年企業環境中快速導入生成式 AI(GenAI)工具,導致 GenAI 流量激增高達 890%。雖然 AI 的成長為企業帶來了顯著的生產力效益,但報告也警告,未經授權的使用、新興威脅與治理缺失,使得企業的攻擊面迅速擴大,尤其在亞太與日本地區尤為嚴重。
企業迅速擁抱生成式 AI,應用範圍涵蓋寫作助理、程式編碼平台、客服支援與企業搜尋等。然而,這種廣泛採用的速度已超越許多組織設置適當安全控管的能力。平均而言,企業目前在其環境中管理著
66 種生成式 AI 應用程式,其中有 10% 被歸類為高風險。
一項研究發現,58% 的台灣企業領袖已經採用了生成式 AI,此外,32% 的台灣企業表示因採用生成式 AI 而提高了獲利能力。展望未來,60% 的台灣企業領袖預期在未來一年內,生成式 AI 將進一步提升企業的獲利表現。
Palo Alto Networks 亞太暨日本地區政府與關鍵產業總監暨首席架構師 Tom Scully 表示已觀察到攻擊面正在擴大,特別是在關鍵基礎設施領域使用高風險生成式 AI 應用時更為明顯。組織必須在創新與強化治理之間取得平衡,採取能因應 AI 特有風險的資安架構。從影子 AI(Shadow AI)、資料外洩,到代理型 AI 模型所帶來的複雜威脅,主動監管與具彈性的安全控管機制,是確保 AI 發揮最大效益的關鍵,同時避免危及國家安全、公共信任與營運穩定性。
《2025 生成式 AI 資安報告》重點發現包括:
- 生成式 AI 的採用呈指數成長(Exponential growth):2024 年 GenAI 流量成長超過 890%。2025 年 1 月 DeepSeek-R1 發布後,與 DeepSeek 相關的流量在短短兩個月內暴增 1,800%。
- 數據外洩事件上升:與生成式AI 有關的資料外洩防護(DLP)事件增加超過兩倍,現在占所有資料安全事件的 14%。
- 影子 AI(Shadow AI) 成為關鍵風險:未經授權、未經核准的生成式 AI 使用被稱為「影子 AI」,它為 IT 和資安團隊帶來盲點,使其難以掌控敏感資料的流向。
- 關鍵基礎設施與政府部門風險升高:許多高風險 AI 模型仍易受到越獄攻擊(jailbreak),可能產出不安全內容,包括冒犯性資料與非法活動指令。
- 產業洞察:科技與製造業佔 AI 程式編碼交易量的 39%,對仰賴專有智慧財產的產業構成額外風險。
- 台灣企業常用生成式AI工具:Codeium(AI編碼工具)以 32.67% 位居第一;其次,Grammarly(AI 寫作助手)佔 30.12%;名列第三是 Microsoft Power Apps(AI編碼工具)佔13.22%;而 Chat GPT 則以 12.51% 排名第四。
Palo Alto Networks 台灣區總經理尤惠生表示已看到許多組織開始積極尋找更具前瞻性的資安架構,來應對生成式 AI 帶來的新型態威脅。台灣本身擁有強大的技術實力和完整的產業鏈,具備率先推動 AI 治理與風險管理的條件,進一步強化自身在全球科技體系中的影響力。
報告同時也針對希望安全運用生成式 AI 潛力的企業,提出最佳實務建議:
- 建立可視性與控管機制:全面掌握生成式 AI 應用的使用情況,實施條件式存取政策,並依使用者與群組層級管理權限。
- 保護敏感資料:導入即時內容檢查機制,搭配集中式政策控管,以偵測並防止未授權的資料外洩。
- 防禦 AI 驅動的威脅:建置零信任(Zero Trust)資安架構,以抵禦現代網路威脅、惡意軟體與高度複雜的 AI 攻擊。