AI 進入戰情室?傳美軍於伊朗行動導入 Claude AI 輔助戰場決策

27e502c4 1476 4356 9d8e 26420c1032a0

人工智慧(AI)已廣泛應用於軍事領域,從分析衛星圖像、識別網路威脅到操作飛彈防禦系統。據《華爾街日報》報導,美國中央司令部在近期對伊朗的軍事行動中,使用了 Anthropic 公司的 Claude AI,進行情報評估、目標識別和模擬戰場情境。

報導指出,儘管美國總統川普(Donald Trump)下令聯邦機構停止使用 Claude,但由於該系統已與現有軟體基礎設施整合,國防系統移除該工具可能需要數個月。據稱,Claude 也被用於今年一月逮捕委內瑞拉總統馬杜羅(Nicolás Maduro)的行動。

目前尚不清楚該系統在這些行動中具體扮演的角色。官方尚未披露該模型是否標記了潛在目標、分析了戰場情報或預測了傷亡情況。現行法規也未要求政府公布此類資訊。

大型語言模型(LLM)在軍事決策支援系統中的應用,是近年來的新發展。去年 11 月,Anthropic 與 Palantir Technologies 合作,將 Claude 模型整合到美國軍方使用的數據分析平台中,作為一個推理引擎來解讀大量情報數據。今年一月,Anthropic 還向五角大廈提交了一份價值 1 億美元的提案,旨在開發使用 Claude 的聲控無人機群,將指揮官的口頭指令轉化為可協調自主無人機隊的數位指令。據彭博新聞報導,該提案包括用於「目標相關意識和共享」以及無人機任務「從發起到終止」的作戰控制系統,但最終遭到五角大廈拒絕。

然而,AI 在軍事領域的應用日益廣泛,也引發了研究人員對可靠性和監督的擔憂。大型語言模型容易產生不正確的資訊,也就是所謂的「幻覺」,因為它們的訓練過程鼓勵它們產生答案,而不是承認不確定性。有研究人員認為,這種限制可能難以消除。

過往案例顯示了自動化目標系統的風險。Lavender 是一個 AI 輔助資料庫,以色列在加薩的軍事行動中利用該系統分析監控數據,包括位置歷史記錄和社交關係,對個人與哈馬斯(Hamas)的潛在聯繫進行評分。如果分數超過閾值,系統會將該人標記為潛在目標。根據以色列-巴勒斯坦媒體 +972 的調查,該系統在大約 10% 的案例中產生了錯誤的識別。

牛津大學網路研究所數位倫理與國防技術教授 Mariarosaria Taddeo 表示:「大約有 3,600 人被錯誤地鎖定為目標。」研究人員表示,此類系統可能會在加速決策的同時,減少人為審查。倫敦瑪麗皇后大學政治理論教授 Elke Schwarz 認為,軍事用途的人工智慧在過去十年中變得越來越不透明。她同時也是《死亡機器:暴力技術的倫理》一書的作者。

儘管國防系統通常在嚴格保密的情況下運作,但國際人道法仍然要求對新武器系統進行監督。《日內瓦公約》第 36 條規定,各國在部署新武器之前必須對其進行審查。然而,不斷學習和更新的 AI 系統對這些規則提出了挑戰。Taddeo 指出,隨著時間推移而不斷變化的 AI 模型,在每次更新後實際上都成為一個新系統,這使得評估其是否符合現有法律框架的努力變得複雜。研究人員認為,政府至少應披露 AI 在軍事行動中的總體使用範圍。在記者、公民自由團體和立法者的多年施壓下,美國政府最終在 2016 年公布了其無人機襲擊計畫造成的傷亡人數。儘管批評人士認為這些數字低估了平民傷亡人數,但它仍然是官方首次承認該計畫的規模。

一些分析人士表示,目前關於 AI 監管的辯論,包括關於自主武器和大規模監控的問題,忽略了這項技術已經在軍事行動中的使用方式。Taddeo 說:「我們還沒有以社會的角度決定,是否可以接受讓機器決定一個人是否應該被殺死。」研究人員表示,在人工智慧輔助的戰爭變得司空見慣且公眾監督減少之前,可能需要更大的透明度。

27e502c4 1476 4356 9d8e 26420c1032a0
想讓品牌在新聞媒體曝光? 立即點我加入官方LINE@免費諮詢

相關新聞

最新消息