https://www.informationsecurity.com.tw/seminar/2025_Cloudforce/
https://www.informationsecurity.com.tw/seminar/2025_Cloudforce/

新聞

機器人農場主導假訊息戰,AI自動化帳號操控輿論

2025 / 10 / 17
編輯部
機器人農場主導假訊息戰,AI自動化帳號操控輿論
根據 Thales 最新報告,2024年自動化機器人流量已占全球網路流量的51%,這是十年來機器人流量首度超越人類線上活動。隨著機器人變得更加普遍且難以辨識,人們開始對線上內容失去信心,這產生了「騙子紅利」(Liar's Dividend)現象,對民主社會構成嚴重威脅。

網路流量結構的歷史性轉變

Thales報告揭露的數據顯示,2024年自動化機器人流量占所有網路流量的51%,十年來首度超越人類線上活動。這個里程碑反映出自動化技術的快速進展,而這些機器人不再只是執行簡單任務,更能夠生成內容並參與社群媒體討論。

人工智慧驅動的機器人能製造共識假象。透過讓特定主題標籤或觀點成為趨勢,營造出人人都在討論的錯覺,或讓極端立場看似獲得更廣泛的支持。機器人生成內容的速度遠超真人,能以龐大數量淹沒線上空間,將真實對話推向邊緣。

「騙子紅利」現象的興起與衝擊

「騙子紅利」是這波機器人浪潮帶來的核心問題。即使是真實內容也會被質疑,因為每個人都知道假訊息充斥。當任何批評聲音或不便的事實都能被輕易駁斥為機器人或深偽(Deepfake)所為時,民主辯論就會受到衝擊。

這種現象在政治領域尤其危險。政治人物可以將任何批評輕易歸咎於機器人攻擊或深偽技術。當公民無法區分真實民意與機器人製造的假象時,民主決策的正當性就會受到質疑。

機器人農場的運作模式與威脅規模

這些機器人農場通常由俄羅斯、中國或伊朗等國家贊助,使用由單一電腦控制的智慧型手機機架,或以軟體系統模擬真人在X、Facebook和Instagram等平台上的活動。

美國司法部查獲俄羅斯營運商使用的兩個網域,用於運行基於Meliorator的機器人農場。Meliorator是一個AI驅動工具,專門創建假社群媒體人物。這些帳號多數偽裝成美國人,透過文字、圖片和影片推送支持克里姆林宮的訊息。與該行動相關的近1,000個帳號已在X平台上被停用。

英國選舉期間的案例展現了機器人農場的驚人影響力。英國選舉前,X平台上有45個類機器人帳號散播分裂性政治內容,發布約44萬則貼文,觸及超過30億次瀏覽,選後又新增17萬則貼文和13億次瀏覽。

更令人擔憂的是,即使直接要求使用者辨識機器人,結果也不樂觀。在Mastodon平台的一項實驗中,參與者試圖在政治討論中識別AI機器人,錯誤率高達58%。

俄羅斯機器人農場的全球影響

近年來,俄羅斯主導多項假訊息戰,目標是削弱民主程序,從美國政治運動到歐洲選舉都受到影響。2024年9月,微軟揭露一項俄羅斯假訊息行動,散播假新聞指控美國副總統賀錦麗(Kamala Harris)在2011年肇事逃逸。Storm-1516組織製作了一段由演員扮演受害者的影片,發布在偽裝成舊金山電視台KBSF-TV的網站上。該片段獲得超過270萬次觀看,並透過親俄社群媒體網路放大傳播。

2016年也曾出現類似手法。當時俄羅斯機器人農場假冒美國社運人士,在Facebook和Twitter上放大有利於川普(Donald Trump)的內容,觸及數百萬選民。同樣策略也出現在歐洲。德國最近的選舉前,與俄羅斯有關的機器人散播假影片和偽媒體內容來扭曲辯論,德國當局將其標記為協調性干預行動。

研究顯示,俄羅斯利用Telegram上的機器人網路影響烏克蘭佔領區民眾。這些機器人不經營自己的頻道,而是潛入當地對話,散播讚揚佔領區日常生活的親俄訊息,並質疑烏克蘭的合法性。目標是讓宣傳看起來像是普通居民的聲音。

平台防禦機制的困境

儘管線上平台負責監管自己的網路,但在阻止惡意機器人內容的成效仍不足,惡意AI機器人仍持續突破主要社群媒體平台的防禦。雖然大多數平台都有反自動化操縱的規則,但執法薄弱,機器人則利用漏洞散播假訊息,顯示現有的偵測系統和政策已跟不上威脅的演變速度。

馬斯克(Elon Musk)擁有的社群媒體平台X,正面臨歐盟《數位服務法》(Digital Services Act)的首次處罰。歐盟指出,其驗證系統偏離業界規範,被駭客利用來誤導使用者。

解決這個問題不只是刪除假帳號。專家呼籲政策制定者與科技公司合作、加強數位素養教育,並提升公眾意識。使用者也需要對自己消費和分享的資訊更加謹慎。

以AI對抗假訊息

AI既助長了假訊息戰,現在也被用來反制。各國政府、科技公司和民間團體正使用AI工具來偵測、驗證和移除虛假內容,並協助識別協調性不真實行為(Coordinated Inauthentic Behavior)。平台透過圖形分析(Graph Analysis)發現異常模式的帳號群組,例如使用AI生成頭像的新帳號進行同步發文。

根據Arkose Labs的資料,企業正大力投資AI驅動的解決方案,目前占網路資安預算的21%,預計2026年將達到27%。

全球政策因應

目前,歐盟和美國都在採取行動應對機器人驅動的假訊息。歐盟的《數位服務法》要求大型線上平台評估並減輕系統性風險(如操縱),並向經過審核的研究人員開放平台資料存取。新的《AI法案》則為生成式AI引入透明度規則,要求AI生成的內容必須清楚標示。

美國則沒有單一聯邦法律,而是由司法部和網路安全暨基礎設施安全局(Cybersecurity and Infrastructure Security Agency, CISA)等機構追查外國機器人農場,加州等州已通過機器人揭露法。

國際組織也積極參與。北約(NATO)將線上影響力行動視為安全風險,與盟國合作建立防禦韌性。聯合國已針對AI治理和資訊完整性展開辯論,七國集團(G7)也承諾對抗外國資訊操縱。這些行動顯示,機器人農場已被視為全球性挑戰。

展望:重建數位信任的挑戰

機器人流量超越人類標誌著網路發展進入新階段。2024年成為網路「非人」時代的元年,當超過一半的網路流量來自機器人,這不僅改變了網路生態系統的基本結構,更對資訊可信度、民主辯論和商業運作帶來根本性挑戰。

隨著AI技術持續進步,機器人與真人之間的界線將更加模糊。各國政府、科技公司和民間組織必須共同努力,在技術、政策和教育等多個層面建立防禦機制。對台灣而言,作為高度數位化的民主社會,如何在這個機器人主導的網路世界中維護資訊真實性和民主價值,將是必須面對的重要課題。

本文轉載自HelpNetSecurity。