https://www.informationsecurity.com.tw/seminar/2024_infosec-gov/
https://www.informationsecurity.com.tw/seminar/2024_infosec-gov/

觀點

2024 年AI如何影響網路安全? 7 個分享

2024 / 01 / 03
編輯部
2024 年AI如何影響網路安全? 7 個分享
MSSP、MSP 以及各種網路安全企業用人工智慧(AI)用來幫助保護客戶。但攻擊者也利用AI來為自己的利益或破壞目標達到目的。

外媒邀請多個資安專家分享2024 年AI如何影響網路安全。

假訊息/選舉年漏洞的增加

「我們預計在(美國)總統選舉年會看到更多利用假新聞傳播、假訊息的AI攻擊。紙媒、電影、串流媒體等媒體業務都受到嚴格監管,但網路內容很難被監管。這使得不良行為者能夠生成公眾人物的AI版本,利用名人和世界領導人的影響力來傳播假新聞並賦予其合法性,而無需進行事實核查。如果沒有任何政府立法來打擊這些策略,不良行為者將能夠透過社交手段改變社會的行為。」

   - Zscaler副總裁兼資安長Sam Curry

生成式AI創造安全機會

「生成式AI和機器學習 (ML) 正在增加網路攻擊的頻率和複雜性,給公司帶來新的壓力。這項技術可以讓網路犯罪分子發動複雜而隱密的攻擊,例如深度偽造或自我進化的惡意軟體,從而大規模破壞系統。為了應對這些進階威脅,企業必須使用AI驅動的網路安全。這項技術有潛力改變行業,透過自動強化配置和合規性來改善企業狀況、克服微分段挑戰、微調最小權限存取、增強報告等。」

  -TCS全球管理合夥人 Margareta Petrovic 與網路安全全球策略計畫主管KPS Sandhu 博士

高階AI發動社交工程攻擊

「商業可用的開源AI功能,包括 ChatGPT 和 LLaMA 等大型語言模型 (LLM) 以及無數變體,將幫助攻擊者設計經過深思熟慮且有效的社交工程活動。隨著AI系統透過LinkedIn 和Reddit 等社交媒體網站與大量個人資訊越來越多的整合,我們將看到即使是低階的攻擊者也有能力創造目標性、令人信服的基於社交工程的活動。」

   - Adlumin威脅研究總監Kevin O'Connor

「影子AI」的崛起

「到 2024 年,生成式AI在工作場所的廣泛使用將帶來新的網路安全挑戰,特別是『影子AI』。在沒有領導知識的情況下將AI工具整合到工作流程中的員工會產生網路安全和資料隱私風險。
如果沒有治理,組織就無法了解員工使用哪些工具以及有多少敏感資訊面臨風險。公司將開始採用可降低影子AI風險的託管政策。對團隊進行安全AI實踐教育、制定明確的使用政策、對AI工具的使用實施監控以及隨著AI技術的發展更新安全協議,利用AI的優勢同時最大限度地降低資料安全風險至關重要。」

     - Bitwarden首席執行官Michael Crandell

不斷發展的AI紅隊測試

「AI網路安全將在明年取得進展,並將更加聚焦AI紅隊和漏洞賞金。就像Google等供應商現在將生成式AI威脅納入其漏洞賞金計劃,這種做法將擴大到識別和解決獨特的AI漏洞,例如模型操縱或提示注入攻擊。AI紅隊(進攻性安全測試)將繼續採用多元化團隊進行全面的AI系統評估,並專注於同理心和詳細的測試場景。AI紅隊和激勵性漏洞賞金的結合對於保護AI系統免受複雜的網路安全威脅至關重要,這反映了一種主動的、全行業的AI安全方法。」

   - Aiden首席執行官Josh Aaron

AI威脅與AI資安

「攻擊者更頻繁的使用AI和機器學習來開發更複雜的攻擊。但AI也可以用來反擊這些攻擊。AI驅動的防禦和AI輔助進攻之間的競賽將推動網路安全產業的創新,從而產生更先進的安全解決方案。AI驅動的安全解決方案已被用於識別威脅並確定其優先順序、自動化事件回應以及個人化安全控制。未來,這些解決方案將變得更加複雜,從經驗中學習,並即時適應新的威脅。這將使AI驅動的網路防禦系統能夠在AI引發的自動攻擊造成損害之前主動識別和消除它們。在這個不斷發展的網路安全環境中,組織需要採用AI和機器學習才能保持領先地位。」

   -Veracode首席產品官Brian Roche

AI網路攻擊引發「多重危機」

「到 2024 年,犯罪者將發現更容易使用AI工具,不僅會攻擊傳統 IT系統,還攻擊雲端容器,以及越來越多的工控 和 OT 環境,從而導致『多重危機』的出現。這種情況不僅會造成財務影響,還會同時影響人類生活,產生連鎖效應。由於地緣政治威脅的增加,關鍵運算基礎設施將面臨更大的威脅。網路防禦將實現自動化,利用AI來適應更新的攻擊模型。」

  - ColorTokens資安長諮詢副總裁Agnidipta Sarkar

本文轉載自MSSPAlert。