歐洲議會與歐盟各國近期就《
人工智慧法案》(AI Act) 的「簡化方案」達成初步政治協議,重點聚焦兩大方向:一是
明確禁止以人工智慧製作未經同意的裸露或性影像的「去衣」工具;二是因應產業反彈,
延後部分高風險 AI 規範的執行時程,試圖在基本權利與創新競爭力之間重新取得平衡。
根據歐洲議會的說明,這份協議仍需歐盟成員國與歐洲議會完成正式表決,預計在八月前後走完程序。《AI 法案》(AI Act) 雖已於 2024 年 8 月生效,但多項條文原本就採分階段實施。由於企業界批評合規成本高、恐拖慢歐洲在全球 AI 競賽中的速度,因此促成此次「簡化」談判。
在時程調整方面,
協議將把涉及生物辨識等,以及用於就業、執法與關鍵基礎設施等情境的「高風險」 AI 系統要求,延後至 2027 年 12 月才開始適用,較原先規劃再往後推遲。另在資料使用上,新版本也允許在「偵測與修正偏誤」的必要情境下處理個人資料,並透過擴大豁免範圍,使部分中型企業得以不納入部分規範適用對象,以降低合規負擔。
最受矚目的
新增禁止條款,則是針對
「AI 去衣」(nudification) 工具。這類工具常被用來把一般照片合成為具性暗示或裸露內容,對受害者造成嚴重隱私與人格權侵害。
協議將禁止「在未經同意下製作個人露骨性影像」的 AI 應用,並預計於 12 月 2 日生效。此條文最早在市場事件引發關注後被提出,歐盟希望透過明確禁止,強化對基本權利與人性尊嚴的保護。
參與談判的議員也強調,這份協議可讓監管機關在供應商未妥善處理、可能危害基本權利或人性尊嚴的 AI 系統時,更快採取行動。另有議員指出,簡化措施旨在降低重疊規範,使法規更「可操作」,並為歐洲打造「AI 大陸」鋪路,包括支持新創與成長型公司的發展。
不過,外界仍有批評認為簡化幅度不足。產業團體 指出,協議未把握「真正簡化」的機會,例如仍保留對「非高風險」AI 系統的登錄要求,可能持續造成行政負擔。
從資安與隱私治理角度來看,此次歐盟將「nudification」明確列入禁止範圍,等同承認生成式 AI 正在加速「非自願性私密影像」風險擴散。企業與平台在因應法規的同時,也需把相關濫用風險納入威脅建模與防護機制,避免合成影像成為社交工程與勒索的新工具。
防護建議如下:
- 平台端可導入影像來源驗證與偵測機制,例如合成影像偵測與浮水印標記,以降低內容散播速度。
- 組織可在員工教育中納入深偽與 nudification 的辨識情境,提升對社交工程的防護能力。
- 應明確化受害者通報與下架流程,並保留數位證據,以利後續處置。
本文轉載自 TheRecord。