newsence
來源篩選

AI Safety Meets the War Machine

Wired - AI

Anthropic doesn’t want its AI used in autonomous weapons or government surveillance. Those carve-outs could cost it a major military contract.

newsence

當 AI 安全遇上戰爭機器

Wired - AI
8 天前

AI 生成摘要

Anthropic 不希望其 AI 被用於自主武器或政府監控。這些排除條款可能會讓該公司失去一份重大的軍事合約。

當 AI 安全遇上戰爭機器 | WIRED 選單選單帳戶帳戶展開搜尋評論載入中儲存故事評論載入中FacebookXPinterestYouTubeInstagramTiktok

當 AI 安全遇上戰爭機器

圖片

當 Anthropic 在去年成為第一家獲美國政府批准用於機密用途(包括軍事應用)的大型 AI 公司時,這條新聞並未引起太大波瀾。但本週發生的第二件事卻像砲彈一樣震撼:五角大廈正在重新考慮與該公司的關係,包括一項價值 2 億美元的合約,表面上的原因是這家注重安全的 AI 公司反對參與某些致命行動。所謂的國防部(Department of War)甚至可能將 Anthropic 列為「供應鏈風險」,這是一個通常留給與受聯邦機構審查國家(如中國)有業務往來的公司的「紅字」標籤。這意味著五角大廈將不會與在其國防工作中使用 Anthropic AI 的公司合作。五角大廈首席發言人 Sean Parnell 在給 WIRED 的聲明中證實 Anthropic 正處於風口浪尖。他說:「我們的國家要求合作夥伴願意幫助我們的戰士在任何戰鬥中獲勝。歸根結底,這關係到我們的部隊和美國人民的安全。」這也是給其他公司的一個訊號:目前擁有國防部非機密工作合約的 OpenAI、xAI 和 Google,都在努力通過必要的程序以獲取自己的高級安全許可。

這裡有很多值得探討的地方。首先,有一個問題是 Anthropic 是否因為抱怨其 AI 模型 Claude 被用於撤換委內瑞拉總統馬杜洛(Nicolás Maduro)的突襲行動而受到懲罰(這是目前的報導內容;該公司予以否認)。還有一個事實是,Anthropic 公開支持 AI 監管——這在業界是一個異類立場,且與現任政府的政策背道而馳。但還有一個更大、更令人不安的問題在發酵:政府對軍事用途的需求,是否會讓 AI 本身變得不那麼安全?

研究人員和高管們相信 AI 是有史以來發明的最強大技術。幾乎所有目前的 AI 公司都是建立在一個前提之上:即有可能以防止廣泛傷害的方式實現通用人工智慧(AGI)或超智慧。xAI 的創始人伊隆·馬斯克(Elon Musk)曾是限制 AI 的最大支持者——他共同創立了 OpenAI,是因為他擔心這項技術落入追求利潤的公司手中會太過危險。

Anthropic 則在其中開闢了一個空間,成為所有公司中最注重安全的一家。該公司的使命是將護欄深度整合到模型中,使惡意行為者無法利用 AI 最黑暗的潛力。艾薩克·艾西莫夫(Isaac Asimov)在他的機器人定律中最早也最精闢地說過:機器人不得傷害人類,或坐視人類受到傷害。即使當 AI 變得比地球上任何人類都聰明時——這是 AI 領袖們堅信不疑的必然結果——這些護欄也必須保持穩固。

因此,領先的 AI 實驗室爭先恐後地將其產品投入尖端軍事和情報行動,這似乎顯得自相矛盾。作為第一家擁有機密合約的主要實驗室,Anthropic 為政府提供了一套「專為美國國家安全客戶構建的 Claude Gov 定製模型」。儘管如此,Anthropic 表示這樣做並未違反其自身的安全標準,包括禁止使用 Claude 生產或設計武器。Anthropic 執行長 Dario Amodei 特別表示,他不希望 Claude 參與自主武器或 AI 政府監控。但這在現任政府面前可能行不通。國防部首席技術官 Emil Michael(原 Uber 首席商務官)本週告訴記者,政府不會容忍 AI 公司限制軍方在其武器中使用 AI 的方式。「如果有一群無人機從軍事基地衝出來,你有什麼選擇來擊落它?如果人類的反應速度不夠快……你要怎麼做?」他反問道。機器人第一定律就此煙消雲散。

有一個強而有力的論點認為,有效的國家安全需要來自最具創新精神公司的最佳技術。雖然就在幾年前,一些科技公司還對與五角大廈合作感到退縮,但在 2026 年,他們通常都是揮舞著國旗的準軍事承包商。我還沒聽過任何 AI 高管談論他們的模型與致命武力掛鉤,但 Palantir 執行長 Alex Karp 卻毫不避諱地帶著明顯的自豪感說:「我們的產品偶爾會被用來殺人。」

美國在與委內瑞拉這樣的國家作戰時,或許可以肆無忌憚地展示其 AI 實力。但老練的對手將不得不積極實施他們自己版本的國家安全 AI,其結果將是一場全力以赴的軍備競賽。當一項致命行為受到質疑時,政府對於那些堅持例外條款或對「合法用途」進行法律定義辯論的 AI 公司,可能沒什麼耐心。(特別是一個覺得可以隨意重新定義法律,以證明許多人認為的戰爭罪行為合理的政府。)五角大廈的聲明明確表示:如果 AI 公司想與國防部合作,他們必須致力於不惜一切代價贏得勝利。

這種心態在五角大廈可能說得通,但它將創造安全 AI 的努力推向了錯誤的方向。如果你正在創造一種不會傷害人類的 AI 形式,那麼同時研發提供致命武力的版本是適得其反的。就在幾年前,政府和科技高管還在認真討論可能幫助監控和限制 AI 有害用途的國際組織。現在你已經聽不到這種討論了。現在人們公認戰爭的未來就是 AI。更令人恐懼的是,AI 本身的未來可能會更傾向於戰爭中見到的那種暴力——如果製造它的公司和使用它的國家不注意約束這項技術的話。

我長期以來一直相信,我們這個時代的主要故事是數位技術的興起。政治家、政權甚至國家都可能更迭,但科技對人類的重塑是不可逆轉的。當唐納·川普在 2016 年首次當選總統時,我在一篇名為《iPhone 比唐納·川普更強大》的專欄中闡述了這個理論。在他 2024 年連任後,我寫了續篇,認為 AI 是比總統更大的混亂因素。我主張,從長遠來看,科學勝過川普。

這個理論現在感覺有點動搖了。未來可能取決於誰掌管先進 AI,以及他們如何塑造和利用它。當 AI 巨頭們披著愛國主義的外衣尋求與五角大廈達成交易時,事實是,他們正在向一個拒絕監督理念的政府和國防部門,提供一種極其強大且不可預測的技術。艾西莫夫會怎麼想?

這是 Steven Levy 的 Backchannel 通訊。在此閱讀之前的通訊。

評論

你可能也會喜歡

在您的收件匣中:透過 WIRED 測試的裝備升級您的生活

一波不明原因的機器人流量正席捲網路

大故事:像馬拉松一樣為懷孕進行訓練的女性

伊朗的數位監控機器已幾近完成

收聽:矽谷科技工作者正試圖阻止 ICE

圖片 圖片 圖片 圖片 圖片 圖片 圖片 圖片 圖片 圖片 圖片 圖片 圖片 圖片

© 2026 Condé Nast. 保留所有權利。作為與零售商聯盟夥伴關係的一部分,WIRED 可能從透過我們網站購買的產品中獲得部分銷售分成。未經 Condé Nast 事先書面許可,不得複製、分發、傳輸、快取或以其他方式使用本網站上的資料。廣告選擇