4 天鎖定 2,000 個目標:AI 驅動的「殺傷鏈」成形,拆解美軍如何用演算法改寫戰爭速度
AI 正在改變戰爭的運作模式,過去軍事決策往往依賴層層人員分析與指揮鏈批准,如今 AI 系統正逐漸成為戰場決策的重要工具。
根據《金融時報》報導,美國在近期的伊朗戰事中於短短 4 天內攻擊超過 2,000 個目標。這種前所未有的攻擊節奏,部分來自 AI 系統對海量戰場資料的快速分析。報導也指出,這場衝突被視為生成式 AI 模型首次在戰場上被實際應用的案例之一。
在美軍的作戰架構中,AI 不只協助分析情報,還能生成作戰選項,甚至參與整個「殺傷鏈」(kill chain)的運作流程,從目標識別到攻擊評估都可能受到 AI 的輔助。
AI 成為戰場資料分析核心
現代戰場會產生龐大的情報資料,包括來自無人機、衛星、雷達與其他感測器的影像與訊號,過去這些資料需要大量人員逐一分析,但透過 AI 則可以在短時間內處理這些資訊,找出潛在目標,例如透過影像辨識技術分析無人機影像,辨識飛彈發射器或其他軍事設施。
過去兩年,美國國防部已在多項作戰與情報流程中大幅導入 AI 技術。目前美國國防部的主要資料作業平台,是 Palantir 開發的 Maven Smart System,負責整合與處理國防部的大量資料。同時,該系統也結合由 Anthropic 開發的 Claude 模型,形成可即時分析戰場與情報資料的作戰儀表板,用於支援包括伊朗相關行動在內的軍事與情報分析。
Palantir 歐洲主管 Louis Mosley 表示,近一年多來 AI 技術最大的轉變,是從單純的資訊摘要能力提升到具備推理能力(reasoning),這使得 AI 能夠逐步分析問題並提供決策建議。他指出,這種能力大幅提高了軍事行動中的決策數量與速度。
研究 AI 與國際人道法的烏特勒支大學學者 Jessica Dorsey 告訴《金融時報》,在打擊伊斯蘭國(ISIS)的軍事行動中,美軍聯盟在最初 6 個月內約攻擊 2,000 個目標。然而,在近期伊朗戰事類似數量的攻擊卻在短短 4 天內完成,顯示 AI 正在顯著改變軍事行動的規模與節奏。
美國國家地理空間情報局公開數據顯示,截至 2025 年 5 月,Maven 系統已被超過 2 萬名軍事人員使用,涵蓋 35 個軍事機構,並在持續擴張。北約也在 2025 年加入使用該系統。
Claude 聊天機器人如何被用於軍事分析
除了資料分析系統,美軍也開始探索使用 AI 聊天機器人協助作戰規劃。根據《WIRED》報導,Palantir 已將 Anthropic 的 Claude 模型整合進其 AI 平台 AIP(Artificial Intelligence Platform),這個平台提供類似聊天機器人的介面,讓分析人員可以直接向 AI 提問並生成分析結果。
報導指出,在 Palantir 示範的系統中,當 AI 偵測到可能的敵軍活動時,分析人員可以直接詢問系統,例如:該區域可能部署的是哪一支部隊?有哪些可行的攻擊策略?如何規劃部隊進攻路線?
AI 會根據系統資料生成多種作戰方案,例如空中打擊、遠端砲擊或地面部隊攻擊,在某些情境下,AI 還能協助規劃作戰路線、分配武器,甚至安排電子干擾設備。Palantir 的示範中,這整個流程可以在「數秒鐘內」生成完整作戰選項,再由人類指揮官進行最終決策。
此外,AI 也被用來撰寫軍事情報報告。Palantir 的示範文件顯示,Claude 能夠快速整理公開資料並生成軍事分析文件,這些工作過去可能需要分析師花費數小時甚至更長時間完成。
AI 軍事應用引發倫理爭議
在現代軍事行動中,「殺傷鏈」指的是從發現目標到完成攻擊的一整套流程,包括:發現與識別目標、分析與優先排序、選擇武器與攻擊方式,執行攻擊、評估戰果。過去,這一套流程需要花費數小時甚至數天,但隨著 AI 參與整條殺傷鏈,決策時間縮短到幾分鐘甚至數秒內。
然而,AI 在軍事領域的應用也引發新的倫理與法律問題。近期一場爭議就發生在 Anthropic 與五角大廈之間。
Anthropic 拒絕授予政府無限制使用 Claude 的權限,理由是該技術不應被用於大規模監控或完全自主武器。五角大廈隨後將 Anthropic 的產品列為「供應鏈風險」,引發雙方法律衝突。根據《Fortune》報導,Palantir 執行長 Alex Karp 近日則出面澄清,美國國防部不會利用 AI 對美國公民進行國內大規模監控,而據他所知,國防部也沒有這樣的計畫。
不過,快速生成的攻擊目標也被認為增加誤判風險。《金融時報》指出,像是在伊朗戰事中,一所小學遭到轟炸,就引發外界質疑 AI 或人工審查是否出現失誤。
烏特勒支大學學者 Dorsey 指出,在伊朗相關軍事行動中,AI 可能已被用來辨識遠多於過去戰爭的攻擊目標,這些目標可能原本就存在,也可能是由 AI 系統快速生成。她警告,這引發了一個嚴重問題:這些目標是否真的經過法律要求的嚴格審查與確認。她進一步質疑,當一個系統每秒進行 3,700 萬次運算時,人類究竟要如何揭開其決策過程的「黑盒子」,並追溯判斷依據?
從情報分析到作戰規劃,AI 正逐漸嵌入軍事決策流程,如何在自動化決策與人類監督之間取得平衡,將成為各國軍事與科技政策必須面對的重要問題。
*本文開放合作夥伴轉載,資料來源:《Financial Times》、《WIRED》、《Fortune》,首圖來源:AI 工具生成