◎董慧明
在數位資訊時代,合成媒體(Synthetic Media)技術發展愈趨成熟,惟隨之產生的安全風險也令人擔憂。技術人員運用人工智慧生成、製作影音和文字內容的技術門檻持續降低,一旦遭到惡意應用,極易變為操作認知作戰的工具。變化多端的攻擊手法不僅損傷個人判斷力、破壞社會信任基礎,甚至擾亂國家安全與憲政秩序。
合成媒體認知作戰的核心特點在於其模糊「真實」與「虛構」界線的能力。以深偽(Deepfake)技術為例,可輕易生成包括篡改國家元首政要聲音的錄音檔、捏造國際事件的影片紀錄,或是模擬熱點區域衝突場景等看似真實的虛假內容。此類內容因視聽效果逼真、情感觸發力強,且民眾難從表面即時辨識真偽,使其成為認知作戰中極具威脅性的利器。
從國家安全角度分析,合成媒體攻擊已是一種不對稱的新興安全威脅。攻擊者無須耗用龐大軍事資源,即可對目標國家、對象產生重大政經衝擊。其中,英國資訊委員辦公室(ICO)上月發布《2025年技術前景報告》文件,即對合成媒體技術發展趨勢做出深入剖析。
ICO提醒,生成式人工智慧技術日益普及,合成媒體產品已由少數技術專家掌握的工具轉變為廣泛可得的數位武器。該報告也指明4種主要攻擊模式:身分假冒型攻擊、資訊環境污染、情感觸發操作,以及認知偏誤放大。這些手法相互交織,用於削弱目標國家社會凝聚力、干擾民主選舉進程,及破壞政府公信力等多層次認知心理威脅。
為有效防範合成媒體認知戰所產生的衝擊,亦可借鑑該份文件提出數種前瞻性的解決方案。例如建立來源認證機制,追溯數位內容的原始創建者與修改歷程,確保資訊可信度;以數位浮水印技術標註人工生成內容,增加透明度;運用人工智慧演算法,系統化檢測媒體資料,察覺細微異常;分析識別可疑帳戶傳播行為模式,阻斷錯假訊息擴散。
社會與個人防禦層面同樣扮演關鍵作用。除了將提升公眾媒體素養與批判性思維作為長期對策,專業事實查核組織的角色亦不可或缺。個人數位安全策略則應著重訊息驗證習慣,像是廣納多元資訊來源,避免訊息繭房效應;追蹤專業事實查核組織發布的警示;了解合成媒體技術基本原理與侷限;對高度情緒化或爭議性資訊保持警覺,避免受情緒影響即時轉發訊息行為等。
合成媒體認知作戰凸顯出數位時代,國家與個人必須嚴密防範的新型安全挑戰。有效應對之道在於構建多層次防禦體系,結合技術工具、法律規範與社會教育。個人數位安全維護亦應被視為現代公民基本素養,社會整體認知韌性更為國家安全基石。面對這場無聲戰爭,提升「全民認知防禦」意識,共同維護資訊環境健全純淨,是保障民主制度與社會穩定的重要課題。
(作者為國防大學政戰學院中共軍事事務研究所副教授)