請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

4 天鎖定 2,000 個目標:AI 驅動的「殺傷鏈」成形,拆解美軍如何用演算法改寫戰爭速度

TechOrange 科技報橘

更新於 03月17日18:29 • 發布於 03月17日08:25 • 廖紹伶

AI 正在改變戰爭的運作模式,過去軍事決策往往依賴層層人員分析與指揮鏈批准,如今 AI 系統正逐漸成為戰場決策的重要工具。

根據《金融時報》報導,美國在近期的伊朗戰事中於短短 4 天內攻擊超過 2,000 個目標。這種前所未有的攻擊節奏,部分來自 AI 系統對海量戰場資料的快速分析。報導也指出,這場衝突被視為生成式 AI 模型首次在戰場上被實際應用的案例之一。

在美軍的作戰架構中,AI 不只協助分析情報,還能生成作戰選項,甚至參與整個「殺傷鏈」(kill chain)的運作流程,從目標識別到攻擊評估都可能受到 AI 的輔助。

AI 成為戰場資料分析核心

現代戰場會產生龐大的情報資料,包括來自無人機、衛星、雷達與其他感測器的影像與訊號,過去這些資料需要大量人員逐一分析,但透過 AI 則可以在短時間內處理這些資訊,找出潛在目標,例如透過影像辨識技術分析無人機影像,辨識飛彈發射器或其他軍事設施。

過去兩年,美國國防部已在多項作戰與情報流程中大幅導入 AI 技術。目前美國國防部的主要資料作業平台,是 Palantir 開發的 Maven Smart System,負責整合與處理國防部的大量資料。同時,該系統也結合由 Anthropic 開發的 Claude 模型,形成可即時分析戰場與情報資料的作戰儀表板,用於支援包括伊朗相關行動在內的軍事與情報分析。

Palantir 歐洲主管 Louis Mosley 表示,近一年多來 AI 技術最大的轉變,是從單純的資訊摘要能力提升到具備推理能力(reasoning),這使得 AI 能夠逐步分析問題並提供決策建議。他指出,這種能力大幅提高了軍事行動中的決策數量與速度。

研究 AI 與國際人道法的烏特勒支大學學者 Jessica Dorsey 告訴《金融時報》,在打擊伊斯蘭國(ISIS)的軍事行動中,美軍聯盟在最初 6 個月內約攻擊 2,000 個目標。然而,在近期伊朗戰事類似數量的攻擊卻在短短 4 天內完成,顯示 AI 正在顯著改變軍事行動的規模與節奏。

美國國家地理空間情報局公開數據顯示,截至 2025 年 5 月,Maven 系統已被超過 2 萬名軍事人員使用,涵蓋 35 個軍事機構,並在持續擴張。北約也在 2025 年加入使用該系統。

Claude 聊天機器人如何被用於軍事分析

除了資料分析系統,美軍也開始探索使用 AI 聊天機器人協助作戰規劃。根據《WIRED》報導,Palantir 已將 Anthropic 的 Claude 模型整合進其 AI 平台 AIP(Artificial Intelligence Platform),這個平台提供類似聊天機器人的介面,讓分析人員可以直接向 AI 提問並生成分析結果。

報導指出,在 Palantir 示範的系統中,當 AI 偵測到可能的敵軍活動時,分析人員可以直接詢問系統,例如:該區域可能部署的是哪一支部隊?有哪些可行的攻擊策略?如何規劃部隊進攻路線?

AI 會根據系統資料生成多種作戰方案,例如空中打擊、遠端砲擊或地面部隊攻擊,在某些情境下,AI 還能協助規劃作戰路線、分配武器,甚至安排電子干擾設備。Palantir 的示範中,這整個流程可以在「數秒鐘內」生成完整作戰選項,再由人類指揮官進行最終決策。

此外,AI 也被用來撰寫軍事情報報告。Palantir 的示範文件顯示,Claude 能夠快速整理公開資料並生成軍事分析文件,這些工作過去可能需要分析師花費數小時甚至更長時間完成。

AI 軍事應用引發倫理爭議

在現代軍事行動中,「殺傷鏈」指的是從發現目標到完成攻擊的一整套流程,包括:發現與識別目標、分析與優先排序、選擇武器與攻擊方式,執行攻擊、評估戰果。過去,這一套流程需要花費數小時甚至數天,但隨著 AI 參與整條殺傷鏈,決策時間縮短到幾分鐘甚至數秒內。

然而,AI 在軍事領域的應用也引發新的倫理與法律問題。近期一場爭議就發生在 Anthropic 與五角大廈之間。

Anthropic 拒絕授予政府無限制使用 Claude 的權限,理由是該技術不應被用於大規模監控或完全自主武器。五角大廈隨後將 Anthropic 的產品列為「供應鏈風險」,引發雙方法律衝突。根據《Fortune》報導,Palantir 執行長 Alex Karp 近日則出面澄清,美國國防部不會利用 AI 對美國公民進行國內大規模監控,而據他所知,國防部也沒有這樣的計畫。

不過,快速生成的攻擊目標也被認為增加誤判風險。《金融時報》指出,像是在伊朗戰事中,一所小學遭到轟炸,就引發外界質疑 AI 或人工審查是否出現失誤。

烏特勒支大學學者 Dorsey 指出,在伊朗相關軍事行動中,AI 可能已被用來辨識遠多於過去戰爭的攻擊目標,這些目標可能原本就存在,也可能是由 AI 系統快速生成。她警告,這引發了一個嚴重問題:這些目標是否真的經過法律要求的嚴格審查與確認。她進一步質疑,當一個系統每秒進行 3,700 萬次運算時,人類究竟要如何揭開其決策過程的「黑盒子」,並追溯判斷依據?

從情報分析到作戰規劃,AI 正逐漸嵌入軍事決策流程,如何在自動化決策與人類監督之間取得平衡,將成為各國軍事與科技政策必須面對的重要問題。

【推薦閱讀】
【TO 展會特輯】透視 NVIDIA GTC 2026

*本文開放合作夥伴轉載,資料來源:《Financial Times》《WIRED》《Fortune》,首圖來源:AI 工具生成

加入『 TechOrange 官方 LINE 好友』 掌握最新科技資訊!

查看原始文章

更多理財相關文章

01

台泥重訊證實 服務逾50年大將呂克甫病逝

NOWNEWS今日新聞
02

1111人力銀行鬧家變!少東暴打姑姑 總裁老爸急聘保鑣護妹

太報
03

川普稱將與伊朗合作 並推進制裁談判 祭50%關稅警告

anue鉅亨網
04

股民注意!PCB大廠剛解禁再被抓去關 二度處置至4/21

EBC 東森新聞
05

〈美股早盤〉美伊停火提振市場情緒!主要指數勁揚、道瓊狂飆千點

anue鉅亨網
06

家樂福跟進!祭「耐熱袋、垃圾袋」限購令 每人限購一組

經濟日報
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...