https://www.informationsecurity.com.tw/seminar/2025_TPinfosecurity365/
https://www.informationsecurity.com.tw/seminar/2025_TPinfosecurity365/

新聞

OpenAI 證實 ChatGPT 遭濫用於編寫惡意軟體

2024 / 10 / 14
編輯部
OpenAI 證實 ChatGPT 遭濫用於編寫惡意軟體
OpenAI 近日首次正式確認ChatGPT 遭到威脅行為者濫用,用於增強網路攻擊。報告指出,自今年年初以來,OpenAI 已阻止超過 20 起相關惡意活動。
 
根據 OpenAI 的調查,這些活動涵蓋了惡意軟體的除錯與開發、錯誤資訊的散播、規避偵測機制,以及進行魚叉式網路釣魚攻擊等多個層面。此報告不僅證實了先前業界的懷疑,更詳細揭露了幾個重要案例。
 
其中,名為「SweetSpecter」的中國駭客組織直接針對 OpenAI 員工發動攻擊。他們發送偽裝成支援請求的釣魚郵件,附帶惡意 ZIP 檔案,意圖投放 SugarGh0st RAT 遠端存取木馬。OpenAI 發現該組織使用多個 ChatGPT 帳戶進行腳本編寫和漏洞分析研究。
 
另一個案例涉及伊朗伊斯蘭革命衛隊( Iranian Government Islamic Revolutionary Guard Corps)相關的「CyberAv3ngers」組織。該組織利用 ChatGPT 獲取工業控制系統的預設憑證,開發自訂腳本,並尋求混淆程式碼的方法。他們還使用 ChatGPT 協助規劃入侵後的活動,並研究特定漏洞的利用方式。
 
第三個重要案例是另一個伊朗駭客組織 Storm-0817。他們使用 ChatGPT 來除錯惡意軟體,開發 Instagram 爬蟲,甚至創建專門針對 Android 平台的自訂惡意軟體及其命令和控制基礎設施。
 
OpenAI 表示,所有與這些威脅行為者相關的帳戶已被封鎖,相關的威脅指標也已與網路安全合作夥伴共享。雖然這些案例並未展現全新的惡意軟體開發能力,但它們清楚地表明生成式人工智慧工具正被用來提高低技能駭客的攻擊效率,協助他們完成從規劃到執行的各個階段。
 
這份報告引發了業界對人工智慧技術潛在濫用的深切關注,同時也凸顯了加強人工智慧安全管控的迫切需求。隨著生成式人工智慧工具的普及,如何在創新與安全之間取得平衡,將成為科技公司和網路安全專家面臨的重大挑戰。

本文轉載自bleepingcomputer。