newsence
來源篩選

What AI Models for War Actually Look Like

Wired - AI

While companies like Anthropic debate limits on military uses of AI, Smack Technologies is training models to plan battlefield operations.

newsence

戰爭用 AI 模型究竟長什麼樣子

Wired - AI
大約 4 小時前

AI 生成摘要

當 Anthropic 等公司在爭論 AI 軍事用途的限制時,Smack Technologies 正致力於訓練專門用於規劃戰場行動的模型,旨在超越通用模型的局限並提升決策優勢。

戰爭用 AI 模型的真實面貌

Anthropic 或許對讓美國軍方無限制地使用其 AI 模型心存顧慮,但一些新創公司正專門為軍事應用開發先進的 AI。

Smack Technologies 本週宣布完成 3,200 萬美元的融資,該公司正在開發的模型據稱在規劃與執行軍事行動方面,很快就會超越 Claude 的能力。而且,與 Anthropic 不同的是,這家新創公司似乎不太擔心禁止特定類型的軍事用途。

「當你在軍隊服役時,你宣誓會以光榮、合法且符合戰爭規則的方式服務,」執行長 Andy Markoff 表示。「對我來說,部署技術並確保其使用符合倫理的人,必須是穿著軍裝的人。」

Markoff 絕非一般的 AI 高階主管。他曾任美國海軍陸戰隊特種作戰司令部指揮官,曾協助在伊拉克和阿富汗執行高風險的特種部隊行動。他與另一位前海軍陸戰隊員 Clint Alanis,以及曾擔任 Tinder 技術副總裁的電腦科學家 Dan Gould 共同創立了 Smack。

Smack 的模型透過試錯過程學習識別最佳任務計畫,類似於 Google 在 2017 年訓練 AlphaGo 程式的方式。就 Smack 而言,其策略包括讓模型運行各種戰爭遊戲情境,並由專家分析師提供訊號,告知模型其選擇的策略是否會奏效。Markoff 表示,這家新創公司雖然沒有傳統頂尖 AI 實驗室的預算,但正投入數百萬美元來訓練其首批 AI 模型。

戰線

在國防部官員與 Anthropic 高階主管就一份價值約 2 億美元的合約條款發生爭執後,AI 的軍事用途已成為矽谷的熱門話題。

導致談判破裂並促使國防部長 Pete Hegseth 宣布 Anthropic 為供應鏈風險的原因之一,是 Anthropic 希望限制其模型在自主武器中的使用。

Markoff 表示,這場騷動掩蓋了一個事實:當今的大型語言模型並未針對軍事用途進行優化。他說,像 Claude 這樣的通用模型擅長總結報告,但它們並非基於軍事數據訓練,且缺乏對物理世界人類水準的理解,因此不適合控制物理硬體。Markoff 聲稱:「我可以告訴你,它們絕對沒有能力進行目標識別。」

「據我所知,戰爭部(國防部)中沒有人正在討論將殺傷鏈(kill chain)完全自動化,」他聲稱,這指的是涉及決定使用致命武力的步驟。

任務範圍

美國和其他國家的軍隊已經在某些情況下使用自主武器,包括需要以超越人類速度反應的飛彈防禦系統。

「美國和超過 30 個其他國家已經在部署具有不同程度自主性的武器系統,其中一些我會定義為完全自主,」里奇蒙大學法學院研究自主武器相關法律問題的權威 Rebecca Crootof 聲稱。

根據 Markoff 的說法,未來像 Smack 正在研發的這類專業模型,也可能被用於任務規劃。該公司的模型旨在幫助指揮官將草擬任務計畫中涉及的大量枯燥工作自動化。Markoff 說,軍事任務的規劃目前通常仍是使用白板和筆記本手動完成的。

Markoff 表示,如果美國與俄羅斯或中國等「近乎均勢(near peer)」的對手開戰,自動化決策可以為美國提供急需的「決策優勢」。

但 AI 是否能在這種情況下可靠地使用仍是一個懸而未決的問題。倫敦國王學院一位研究員最近進行的一項實驗顯示,令人擔憂的是,大型語言模型在戰爭遊戲中往往會升級核衝突。

最近的衝突,特別是俄烏戰爭,凸顯了使用商業硬體和軟體構建的低成本半自主系統的重要性。2023 年,我曾報導過美國海軍在波斯灣測試新型自主系統,以此作為識別伊朗支持的叛亂分子所操作的無人機等用途的一種方式。

一些專家表示,需要圍繞軍方如何部署 AI 劃定更清晰的紅線,特別是考慮到目前簽署的合約條款往往缺乏明確限制。

生命未來研究所(Future of Life Institute)軍事 AI 治理負責人 Anna Hehir 表示,即使 Anthropic 的模型現在不被用於控制完全自主系統,它們也可能以有問題的方式被整合進殺傷鏈中。該非營利組織反對開發受 AI 控制的自主武器。

「AI 太不可靠、不可預測且無法解釋,不能用於這種高風險情境,」Hehir 聲稱。「這些系統無法識別誰是戰鬥員、誰是兒童,更不用說識別投降行為了。」

Markoff 則表示,由於衝突帶來的混亂,對自主性的限制可能是必要的。「在現實世界中,我從未執行過哪怕有 50% 是按計畫進行的行動,這一點是不會改變的,」他說。

這是 Will Knight 的 AI Lab 電子報版本。在此閱讀之前的電子報。