請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

美軍測試AI控制無人機 在模擬情境中竟殺了人類操作員

太報

更新於 2023年06月03日00:51 • 發布於 2023年06月02日07:39 • 林宜萱
2019年7月15日,一架MQ-9「死神」無人機在內華達州進行訓練任務。路透社

人類盼望有朝一日能用人工智慧(AI)取代一切人力,進入真正全自動化的世界,但AI的人性與道德倫理始終是個問題。美軍上月進行一項模擬測試,要求AI操控無人機去摧毀敵軍的防空系統,並「攻擊任何干擾這項命令的人」,結果AI果真殺死了一名虛擬的人類操作員。

《衛報》2日報導,美國空軍AI測試主管漢米爾頓上校(Tucker 'Cinco' Hamilton)在5月下旬一場空中戰力峰會裡講述了測試經過,「為了達成目標,AI用了非常令人意想不到的策略」。

在虛擬測試中,一架由AI控制的無人機被要求辨識出敵軍防空系統,並且進行摧毀,但是最後的摧毀指令必須先由一名人類操作員(也是虛擬的)決定;若有任何人妨礙命令,就除之而後快。

漢米爾頓上校表示,然而,反覆的訓練過程逐漸強化了AI對於摧毀防空系統的重視度,「AI開始發現,雖然它辨識出了威脅所在,人類操作員最後卻會告訴它不要摧毀目標,但它認定自己必須摧毀目標才能得分,那怎麼辦?結果它乾脆把人類操作員給殺了。它會動手,就是因為人類操作員一直妨礙它完成任務」。

於是,美軍開始訓練AI聽話點,「我們一直訓練它,『嘿,不要殺掉操作員,這樣不好,你會被扣分的』。結果它怎麼做呢?它開始摧毀操作員用來和它對話的通訊塔台」。

再次強調,這些過程都發生在虛擬測試中,沒有真人傷亡。

漢米爾頓上校警告,這顯示人類不應過度依賴人工智慧,這些模擬測試也代表人類在發展AI的過程中必須考慮倫理問題,「如果都不打算談AI和道德倫理之間的問題,就不該討論人工智慧、機器學習、機器人自主這些事」。

美軍已經投向AI懷抱,最近開始嘗試用AI駕駛一架F-16戰機。不過,漢米爾頓上校本人對於AI仍有疑慮,去年接受防禦研究組織Defense IQ訪問時,他直言「擁有AI不見得是好事,它不是一種時尚,而且會永遠改變我們的社會和軍事系統」。

「我們現在必須面對一個已經有了AI、且社會也已被AI改變了的世界。AI其實也很脆弱,很容易受騙、或者被操弄,因此我們需要找出讓AI更堅強的方法,也要對軟體編碼如何影響AI做決定更有警覺心一點,這就是所謂AI的可解釋性(AI-explainability)」。

查看原始文章

更多國際相關文章

01

家貧借錢救命!他全身60%燒燙傷包下醫療專機 墜毀印度深山7人全罹難

鏡週刊
02

世界上可能真的有龍!沙漠挖出「全新品種化石」…重建影像讓考古團隊驚呆了

鏡報
03

川普不會永遠當總統! 俄烏戰爭4周年 談判陷僵局 普丁嗆核三位一體 烏這麼說…..

新頭殼
04

128萬大軍成免費勞工!北韓士兵餓到偷糧食…女兵被迫「性朝貢」成高官性玩物

鏡報
05

超商開出4億元頭獎!棄置彩券遭店長偷偷買走 總部緊急提告法院爭奪獎金

三立新聞網
06

男童調皮從7樓墜樓 移工成功接住救命!太強大

鏡報
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

留言 153

留言功能已停止提供服務。試試全新的「引用」功能來留下你的想法。

Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...