https://www.informationsecurity.com.tw/seminar/2024_OT/
https://www.informationsecurity.com.tw/seminar/2024_OT/

觀點

AI的智能與挑戰

2018 / 07 / 16
謝昀澤、邱述琛
AI的智能與挑戰

從政府對「五加二新興產業」或「亞洲矽谷」等未來產業發展的願景擘劃中,可以清楚的看出,「智能科技」的應用與發展,將主導產業未來成敗的關鍵角色,其中,最引人注目的無外乎「人工智慧」。
然而,依據KPMG 2018年針對國內CEO最新調查結果顯示,有超過50%以上的企業CEO非常擔心企業會遭到網路攻擊,且自認為企業尚未做好準備。其中由「人工智慧武器化」引發的風險,更是令CEO頭疼!經彙整近年來發生於全球各地與「人工智慧」相關的「科技災難」至少包括: 
(1) 2015年Google Photos人工智慧演算法,把黑人誤判為大猩猩
(2) 2017年英國衛生部因健檢通知系統演算法設定錯誤,導致百名以上婦女漏檢,可能因此喪命
(3) 2018年Uber自動駕駛車撞上單車騎士,特斯拉自駕系統也再次發生導致駕駛身亡的車禍
(4) 2018年劍橋分析公司利用Facebook用戶的隱私資訊,以大數據分析方法涉及影響美國總統大選及英國脫歐投票結果

「人工智慧」的八類新興數位風險
未來科技將大幅度應用「大-人-機(大數據、人工智慧、機器人等)」等明星技術,其中「人工智慧」更扮演著核心的角色。原本這些智能應用的未來,應該是無限想像的美好,但是在現實應用上遭遇的挑戰,遠比傳統企業擔心的「駭客攻擊」更多。詳細分析與人工智慧演算法相關的科技災難,並分析其本身可能遭遇的風險面向,至少包含以下八個面向: 
(1) 機器學習樣本偏失或不足
(2) 設計者人為錯誤或道德偏失
(3) 演算法設計過程中的技術缺陷
(4) 使用者未了解演算法的限制,所產生的過度依賴與誤用情境流程瑕疵
(5) 演算法遭內外部攻擊者惡意破壞
(6) 人工智慧演算結果濫用,導致侵犯當事人隱私權
(7) 決策者對分析結果的錯誤解讀或誤用
(8) 演算效能不足導致無法完成達成運作目標

人工智慧的科技風險治理心法
人工智慧的風險治理重點與傳統產業及技術有非常大的不同,特別應該針對人工智慧的演算法與大數據風險,建立風險及法遵整合治理架構。以下為KPMG建議的三大風險治理心法: 
(1) 維持技術與風險間的平衡:人工智慧應用在研發與準備期間,除了建立邊做邊學的環境與空間外,研發創新期間,也應該要著手建構對應的風險管理框架
(2) 了解演算法的假設與限制:人工智慧快速運算海量的結構與非結構化大數據資料,演算法基於假設前提並可能受到原始資料影響,必須由研究團隊謹慎判別與分析 
(3) 考量人工介入必要與時機:短期內人工智慧仍難以取代最終決策的「責任」,因此人工智慧的應用場景應配合相關法規與應用規範,設計必要的人工介入條件與時機,而非全數仰賴人工智慧的運算結果進行決策 

人工智慧需要的嶄新數位風險治理服務
未來的「人工智慧」發展,除了在營運環境、商業模式、技術創新等面向需持續突破外,因應全新的「數位風險」的對策與控制措施,亦是迎向智能未來的重大挑戰。而新世代的數位風險治理情境,非常可能必須涵蓋大數據、人工智慧、物聯網等多項新科技,從決定科技應用情境與治理範圍、新興科技應用風險評估、融入隱私與安全於演算法設計過程,到風險評估、管理、審驗等治理工程等步驟,將是企業能夠成功將今日之「智」,轉換成為明日之「能」的重要關鍵!

本文作者目前任職於KPMG數位科技安全(Cybersecurity)服務部執行副總經理與協理