Our agreement with the Department of War
OpenAI
Details on OpenAI’s contract with the Department of War, outlining safety redlines, legal protections, and how AI systems will be deployed in classified environments.
OpenAI
Details on OpenAI’s contract with the Department of War, outlining safety redlines, legal protections, and how AI systems will be deployed in classified environments.
AI 生成摘要
我們與五角大廈達成協議,在機密環境中部署先進人工智慧系統,同時維持嚴格的安全紅線並確保有人員參與監督。
2026 年 2 月 28 日
昨天,我們與五角大廈達成了一項協議,在機密環境中部署先進的 AI 系統,我們也要求他們將此協議提供給所有 AI 公司。
我們認為,與以往任何機密 AI 部署協議(包括 Anthropic 的協議)相比,我們的協議擁有更多的護欄。原因如下。
我們與戰爭部(DoW)的工作由三條主要的紅線引導,這些紅線通常也為其他幾家前沿實驗室所認同:
其他 AI 實驗室在國家安全部署中減少或移除了其安全護欄,並主要依賴使用政策作為其主要防護措施。我們認為我們的方法能更好地防止不可接受的使用行為。
在我們的協議中,我們透過更廣泛、多層次的方法來保護我們的紅線。我們保留對安全堆疊(safety stack)的完全裁量權,透過雲端進行部署,由經過安全審查的 OpenAI 人員參與流程,並擁有強大的合約保護。這些都是在美國法律現有的強大保護之外額外增加的。
我們堅信民主。鑑於這項技術的重要性,我們相信唯一正確的前進道路需要 AI 努力與民主進程之間的深度協作。我們也相信我們的技術將為世界帶來新的風險,而我們希望保衛美國的人員能擁有最好的工具。
我們的協議包括:
我們的部署架構將使我們能夠獨立驗證這些紅線是否被逾越,包括運行和更新分類器。
戰爭部可出於所有合法目的使用該 AI 系統,並應符合適用法律、作戰要求以及公認的安全與監督協議。在法律、法規或國防部政策要求人類控制的任何情況下,該 AI 系統不得用於獨立指揮自主武器,也不得用於承擔根據相同權限需要人類決策者批准的其他高風險決策。根據國防部第 3000.09 號指令(2023 年 1 月 25 日修訂),在自主和半自主系統中使用任何 AI 之前,必須經過嚴格的驗證、確認和測試,以確保其在部署前的現實環境中能按預期運行。
對於情報活動,任何對私人資訊的處理均應遵守憲法第四修正案、1947 年《國家安全法》和 1978 年《外國情報監控法》、第 12333 號行政命令,以及要求明確外國情報目的之適用國防部指令。該 AI 系統不得用於與這些權限不符的對美國人私人資訊的無限制監控。除非《民兵團法》(Posse Comitatus Act)及其他適用法律允許,否則該系統也不得用於國內執法活動。
你們為什麼要這樣做?
首先,我們認為美國軍方絕對需要強大的 AI 模型來支持其使命,特別是面對來自潛在對手日益增長的威脅,這些對手正越來越多地將 AI 技術整合到其系統中。我們最初並未立即投入機密部署的合約,因為我們覺得我們的防護措施和系統尚未準備就緒,我們一直努力確保機密部署能在有防護措施的情況下進行,以確保紅線不被逾越。
我們過去不願意、現在也依然不願意為了提升國家安全工作的性能而移除關鍵的技術防護措施。那不是支持美國軍方的正確方法。
其次,我們也希望緩解戰爭部與美國 AI 實驗室之間的緊張局勢。一個美好的未來需要政府與 AI 實驗室之間進行真實且深度的協作。作為我們此次交易的一部分,我們要求將相同的條款提供給所有 AI 實驗室,並特別要求政府嘗試解決與 Anthropic 之間的問題;現狀對於開啟政府與 AI 實驗室之間下一階段的協作來說是非常糟糕的。
為什麼你們能達成協議而 Anthropic 不能?你們簽署了他們拒絕的協議嗎?
根據我們所知,我們相信我們的合約比早期的協議(包括 Anthropic 最初的合約)提供了更好的保證和更負責任的防護措施。我們認為我們的紅線在這裡更具執行力,因為部署僅限於雲端(而非邊緣端),保持了我們認為最佳的安全堆疊運作方式,並讓經過審查的 OpenAI 人員參與流程。
我們不知道為什麼 Anthropic 無法達成這項協議,我們希望他們和更多實驗室會考慮這一方案。
你們認為 Anthropic 應該被指定為「供應鏈風險」嗎?
不,我們已經向政府明確表達了我們的立場。
這項交易會讓戰爭部使用 OpenAI 模型來驅動自主武器嗎?
不會。基於我們的安全堆疊、僅限雲端的部署、合約條文以及現有的法律、法規和政策,我們有信心這不會發生。我們還將有 OpenAI 人員參與流程以提供額外保證。
這項交易會讓戰爭部使用 OpenAI 模型對美國人進行大規模監控嗎?
不會。基於我們的安全堆疊、合約條文以及嚴格限制戰爭部進行國內監控的現有法律,我們有信心這不會發生。我們還將有 OpenAI 人員參與流程以提供額外保證。
你們必須部署沒有安全堆疊的模型嗎?
不,我們保留對所部署安全堆疊的完全控制權,且不會在沒有安全護欄的情況下進行部署。此外,我們的安全與對齊研究人員將參與其中,並協助隨時間改進系統。我們知道其他 AI 實驗室減少了模型護欄並依賴使用政策作為主要防護,但我們認為我們的分層方法能更好地防止不可接受的使用。
如果政府違反合約條款會發生什麼事?
與任何合約一樣,如果對方違反條款,我們可以終止合約。我們不預期這種情況會發生。
如果政府直接更改法律或現有的戰爭部政策怎麼辦?
我們的合約明確引用了現行的監控和自主武器法律及政策,因此即使這些法律或政策在未來發生變化,我們系統的使用仍必須符合協議中所反映的當前標準。
你們如何回應 Anthropic 在其部落格文章中關於與戰爭部討論的論點?
在他們的文章中,Anthropic 陳述了他們的兩條紅線(我們有相同的兩條紅線,外加第三條:自動化高風險決策),以及他們認為這些紅線在當時從戰爭部看到的合約中無法得到維護的原因。以下是為什麼我們相信同樣的紅線在我們的合約中會成立:
除了這些保護措施外,我們的合約還提供了額外的分層防護,包括我們的安全堆疊和參與流程的 OpenAI 技術專家。
公司 | 2026 年 2 月 27 日
公司 | 2026 年 2 月 27 日
公司 | 2026 年 2 月 27 日