歡迎登入資安人
若您還不是會員,請點選下方加入會員
忘記密碼
加入資安人會員
登入
新聞
觀點
專題
解決方案
活動
訂閱電子報
資安人粉絲團
聯絡我們
關於我們
合作詢問
隱私權政策
香港商法蘭克福展覽有限公司台灣傳媒分公司
110 台北市信義區市民大道六段288號8F
886-2-8729-1099
新聞
觀點
專題
解決方案
活動
訂閱電子報
登入
登入
訂閱電子報
新聞
觀點
專題
解決方案
活動
新聞
您現在位置 : 首頁 >
新聞
OpenAI 證實 ChatGPT 遭濫用於編寫惡意軟體
2024 / 10 / 14
編輯部
OpenAI 近日首次正式確認ChatGPT 遭到威脅行為者濫用,用於增強網路攻擊。報告指出,自今年年初以來,OpenAI 已阻止超過 20 起相關惡意活動。
根據 OpenAI 的調查,這些活動涵蓋了惡意軟體的除錯與開發、錯誤資訊的散播、規避偵測機制,以及進行魚叉式網路釣魚攻擊等多個層面。此報告不僅證實了先前業界的懷疑,更詳細揭露了幾個重要案例。
其中,名為「SweetSpecter」的中國駭客組織直接針對 OpenAI 員工發動攻擊。他們發送偽裝成支援請求的釣魚郵件,附帶惡意 ZIP 檔案,意圖投放 SugarGh0st RAT 遠端存取木馬。OpenAI 發現該組織使用多個 ChatGPT 帳戶進行腳本編寫和漏洞分析研究。
另一個案例涉及伊朗伊斯蘭革命衛隊( Iranian Government Islamic Revolutionary Guard Corps)相關的「CyberAv3ngers」組織。該組織利用 ChatGPT 獲取工業控制系統的預設憑證,開發自訂腳本,並尋求混淆程式碼的方法。他們還使用 ChatGPT 協助規劃入侵後的活動,並研究特定漏洞的利用方式。
第三個重要案例是另一個伊朗駭客組織 Storm-0817。他們使用 ChatGPT 來除錯惡意軟體,開發 Instagram 爬蟲,甚至創建專門針對 Android 平台的自訂惡意軟體及其命令和控制基礎設施。
OpenAI 表示,所有與這些威脅行為者相關的帳戶已被封鎖,相關的威脅指標也已與網路安全合作夥伴共享。雖然這些案例並未展現全新的惡意軟體開發能力,但它們清楚地表明生成式人工智慧工具正被用來提高低技能駭客的攻擊效率,協助他們完成從規劃到執行的各個階段。
這份報告引發了業界對人工智慧技術潛在濫用的深切關注,同時也凸顯了加強人工智慧安全管控的迫切需求。隨著生成式人工智慧工具的普及,如何在創新與安全之間取得平衡,將成為科技公司和網路安全專家面臨的重大挑戰。
本文轉載自bleepingcomputer。
AI資安
負責任的AI
LLM攻擊
零信任模型
最新活動
2025.12.05
聚焦半導體OT資安與產業連結:ISA臺灣分會 2025 年終會員交流聚會
2025.12.11
12/11-12/12【軟體開發安全意識與 .NET/Java 安全程式開發課程】兩日集訓班
2025.12.12
2025 SP-ISAC資安沙龍研討會 SP-ISAC Cyber Security Salon
看更多活動
大家都在看
台灣 2200 萬 LINE 用戶拉警報 研究揭重大加密協議缺陷恐成間諜工具
資安署114年10月資安月報:鍵盤排序密碼成破口;Internet Archive遭濫用躲避偵測
Fortinet 發布 2026 資安預測:AI 代理驅動攻防加速戰、回應時間壓縮成決勝點
WhatsApp 用戶個資曝險:研究揭 API 漏洞可大規模取得手機號碼、照片與個人資訊
南韓 MSP 遭駭波及 24 家金融業 台灣企業應提高供應鏈資安警覺
資安人科技網
文章推薦
MSSP面臨供應鏈攻擊考驗:從Salesloft Drift外洩事件看第三方風險管理新策略
攻擊者將LLM整合至惡意程式 以動態逃避偵測
低成本硬體模組破解 AMD 與 Intel 記憶體加密防護