歡迎登入資安人
若您還不是會員,請點選下方加入會員
忘記密碼
加入資安人會員
登入
新聞
觀點
專題
解決方案
活動
訂閱電子報
資安人粉絲團
聯絡我們
關於我們
合作詢問
隱私權政策
香港商法蘭克福展覽有限公司台灣傳媒分公司
110 台北市信義區市民大道六段288號8F
886-2-8729-1099
新聞
觀點
專題
解決方案
活動
訂閱電子報
登入
登入
訂閱電子報
新聞
觀點
專題
解決方案
活動
新聞
您現在位置 : 首頁 >
新聞
OpenAI 證實 ChatGPT 遭濫用於編寫惡意軟體
2024 / 10 / 14
編輯部
OpenAI 近日首次正式確認ChatGPT 遭到威脅行為者濫用,用於增強網路攻擊。報告指出,自今年年初以來,OpenAI 已阻止超過 20 起相關惡意活動。
根據 OpenAI 的調查,這些活動涵蓋了惡意軟體的除錯與開發、錯誤資訊的散播、規避偵測機制,以及進行魚叉式網路釣魚攻擊等多個層面。此報告不僅證實了先前業界的懷疑,更詳細揭露了幾個重要案例。
其中,名為「SweetSpecter」的中國駭客組織直接針對 OpenAI 員工發動攻擊。他們發送偽裝成支援請求的釣魚郵件,附帶惡意 ZIP 檔案,意圖投放 SugarGh0st RAT 遠端存取木馬。OpenAI 發現該組織使用多個 ChatGPT 帳戶進行腳本編寫和漏洞分析研究。
另一個案例涉及伊朗伊斯蘭革命衛隊( Iranian Government Islamic Revolutionary Guard Corps)相關的「CyberAv3ngers」組織。該組織利用 ChatGPT 獲取工業控制系統的預設憑證,開發自訂腳本,並尋求混淆程式碼的方法。他們還使用 ChatGPT 協助規劃入侵後的活動,並研究特定漏洞的利用方式。
第三個重要案例是另一個伊朗駭客組織 Storm-0817。他們使用 ChatGPT 來除錯惡意軟體,開發 Instagram 爬蟲,甚至創建專門針對 Android 平台的自訂惡意軟體及其命令和控制基礎設施。
OpenAI 表示,所有與這些威脅行為者相關的帳戶已被封鎖,相關的威脅指標也已與網路安全合作夥伴共享。雖然這些案例並未展現全新的惡意軟體開發能力,但它們清楚地表明生成式人工智慧工具正被用來提高低技能駭客的攻擊效率,協助他們完成從規劃到執行的各個階段。
這份報告引發了業界對人工智慧技術潛在濫用的深切關注,同時也凸顯了加強人工智慧安全管控的迫切需求。隨著生成式人工智慧工具的普及,如何在創新與安全之間取得平衡,將成為科技公司和網路安全專家面臨的重大挑戰。
本文轉載自bleepingcomputer。
AI資安
負責任的AI
LLM攻擊
零信任模型
最新活動
2025.06.25
資安人講堂:構築製造業資安核心 – 零信任架構的落地實戰
2025.06.24
漢昕科技X線上資安黑白講【檔案安全新防線,資料外洩零容忍——企業資安全面升級】2025/6/24全面開講!
2025.06.25
拆解 ISO 27001 報價公式:控好預算、加速資安合規
2025.06.27
以資安及風險角度重塑企業韌性
2025.06.27
以資安及風險角度重塑企業韌性
2025.07.09
AI應用下的資安風險
看更多活動
大家都在看
趨勢科技與Palo Alto Networks 發布多項重要安全更新
Microsoft 推出 2025年6月 Patch Tuesday 每月例行更新修補包
Mirai 殭屍網路鎖定 Wazuh 開源資安平台漏洞發動攻擊
大規模暴力破解攻擊鎖定 Apache Tomcat 管理介面
Qilin 勒索軟體集團利用 Fortinet 漏洞發動攻擊 已影響全球 310 家機構
資安人科技網
文章推薦
Jamf發表AI驅動的Apple裝置管理與強化資安功能
EchoLeak 揭示新型態的零點擊AI資安漏洞「LLM範疇突破」
光盾資訊促台日金融資安高層關鍵對話