https://www.informationsecurity.com.tw/Seminar/2024_TNSP/
https://www.informationsecurity.com.tw/Seminar/2024_TNSP/

觀點

報告:LLM 可準確分類惡意軟體風險的比例僅有 5%

2023 / 08 / 04
編輯部
報告:LLM 可準確分類惡意軟體風險的比例僅有 5%
根據EndorLabs,開源在AI技術堆疊中發揮越來越重要的作用,但大多數項目(52%)引用了存在已知漏洞或易受攻擊的依賴軟體。
 
EndorLabs發布的《軟體依賴管理狀態報告(State of Dependency Management 2023)》顯示,ChatGPT的API發布不到5個月就被超過900個npm和PyPI套裝軟體調用,其中75%是全新的套裝軟體。EndorLabs警告,任何開源專案,都必須重視並管理依賴軟體的安全風險。
 
不幸的是,企業不僅低估了開源軟體API風險,更低估的API的安全性。報告稱,只有45%應用程式在程式碼庫中沒有調用安全敏感API資料。但如果包含依賴軟體,這比例將掉到5%,也就是說,多數的應用程式都會調用敏感的API資料。
 
EndorLabs的報告特別關注大型語言(LLM)應用程式在安全領域的影響。LLM可以快速的開發並隱藏惡意軟體,更可能使得防禦性LLM應用程式失效。
 
EndorLabs表示,ChatGPT等大型語言模型(LLM)技術目前對辨識、檢測惡意軟體的結果並不可靠。報告中指出在所有案例中準確分類惡意軟體風險的比例僅有 5%。OpenAI GPT-3.5的準確率僅為3.4%,而Vertex AI text-bison為7.9%。因此兩種模型都會產生大量誤報,需要手動審查並阻止自動刪除套裝程式。目前將大語言模型用於安全防護的難度還很高,即使惡意軟體的評估準確率可以提高到九成以上,也不足以實現自主決策。
 
另外報告指出,開發人員會花費大量時間修復程式碼中的漏洞,而這些依賴軟體的漏洞有些可能沒有用在實際的應用程式。據統計,71%的典型Java應用程式碼來自開源元件,但應用程式僅使用了這些套裝軟體中的12%導入碼。漏洞存在於沒有被使用的程式碼中很難被利用,因此這些漏洞可以被排在較低等級的修補順序。