newsence
來源篩選

OpenAI Had Banned Military Use. The Pentagon Tested Its Models Through Microsoft Anyway

Wired - AI

Sources allege the Defense Department experimented with Microsoft’s version of OpenAI technology before the ChatGPT-maker lifted its prohibition on military applications.

newsence

OpenAI 曾禁止軍事用途,但五角大廈仍透過微軟測試其模型

Wired - AI
大約 3 小時前

AI 生成摘要

消息人士指稱,在 ChatGPT 製造商解除軍事應用禁令之前,國防部就已經在實驗微軟版本的 OpenAI 技術。

OpenAI 曾禁止軍事用途。但五角大廈仍透過微軟測試了其模型

OpenAI 執行長山姆·阿特曼(Sam Altman)本週因公司與美國軍方簽署協議而再次深陷輿論壓力。在 Anthropic 與五角大廈約 2 億美元的合約告吹後,OpenAI 員工對此舉表示批評,並要求阿特曼發布更多關於該協議的資訊。阿特曼在一篇社群媒體貼文中承認,這件事處理得看起來「很草率」。

雖然此事件已成為重大新聞,但這可能只是 OpenAI 圍繞美國軍方如何獲取其 AI 技術所制定的模糊政策中,最新且最公開的一個例子。

據兩位知情人士透露,2023 年,OpenAI 的使用政策明確禁止軍方獲取其 AI 模型。但一些 OpenAI 員工發現,五角大廈已經開始嘗試使用 Azure OpenAI——這是微軟提供的一個 OpenAI 模型版本。當時,微軟與國防部簽約已有數十年之久。微軟同時也是 OpenAI 最大的投資者,並擁有將這家新創公司技術商業化的廣泛授權。

消息人士稱,同年,OpenAI 員工看到五角大廈官員出入公司位於舊金山的辦公室。由於未獲授權對公司私事發表評論,這些消息人士要求匿名。

一些 OpenAI 員工對與五角大廈掛鉤感到警惕,而另一些人則單純對 OpenAI 的使用政策究竟意味著什麼感到困惑。該政策是否適用於微軟?雖然消息人士告訴《連線》(WIRED),當時大多數員工並不清楚這一點,但 OpenAI 和微軟的發言人表示,Azure OpenAI 產品現在不受、過去也不受 OpenAI 政策的約束。

微軟發言人法蘭克·蕭(Frank Shaw)在給《連線》的一份聲明中表示:「微軟擁有一項名為 Azure OpenAI 的服務,該服務於 2023 年開始提供給美國政府,並受微軟服務條款的約束。」微軟拒絕具體評論何時向五角大廈提供 Azure OpenAI,但指出該服務直到 2025 年才獲准用於政府的「絕密」工作負載。

OpenAI 發言人莉茲·布爾喬亞(Liz Bourgeois)在聲明中表示:「AI 已經在國家安全中發揮著重要作用,我們認為參與其中非常重要,以確保其部署是安全且負責任的。在處理這項工作時,我們對員工保持透明,提供定期更新和專門渠道,讓團隊可以提出問題並直接與我們的國家安全團隊交流。」

美國國防部未回應《連線》的置評請求。

到 2024 年 1 月,OpenAI 更新了政策,刪除了對軍事用途的全面禁令。消息人士稱,幾名 OpenAI 員工是透過《攔截報》(The Intercept)的一篇文章才得知政策更新的消息。公司領導層隨後在全體員工會議上解釋了這一變化,說明公司未來將如何在這一領域謹慎行事。

2024 年 12 月,OpenAI 宣布與 Anduril 建立合作夥伴關係,為「國家安全任務」開發和部署 AI 系統。消息人士稱,在宣布之前,OpenAI 告訴員工,該合作範圍狹窄,僅處理非機密工作負載。這與 Anthropic 與 Palantir 簽署的協議形成對比,後者將 Anthropic 的 AI 用於機密軍事工作。

OpenAI 發言人向《連線》證實,Palantir 曾於 2024 年秋季聯繫 OpenAI,討論參與其「FedStart」計畫。兩位知情人士告訴《連線》,公司最終拒絕了該提議,並告訴員工這風險太高。然而,OpenAI 現在以其他方式與 Palantir 合作。

消息人士稱,在與 Anduril 的交易宣布前後,數十名 OpenAI 員工加入了一個公開的 Slack 頻道,討論他們對公司軍事合作夥伴關係的擔憂,發言人也證實了這一點。一些人認為公司的模型太不可靠,連處理用戶的信用卡資訊都成問題,更不用說在戰場上協助美國人了。

並非所有人都有同樣的擔憂。其他員工認為,與 Anduril 的合作表明公司會負責任地處理其軍事夥伴關係。一位現任 OpenAI 研究員告訴我:「在涉及廣泛的機密部署時,OpenAI 迄今為止採取的做法是『三思而後行』。員工們正參與討論什麼樣的國家安全方針才符合公司的使命。」

這也是為什麼 OpenAI 最近的五角大廈協議引發員工分歧的部分原因。雖然阿特曼公開表示他支持 Anthropic 的紅線——不允許其 AI 用於合法的群眾監控或自主武器開發——但根據外部法律專家的說法,該公司的協議似乎為這些活動留下了空間。

OpenAI 地緣政治團隊前負責人莎拉·肖克(Sarah Shoker)上週在 Substack 的一篇文章中表示:「這一切最大的輸家是衝突地區的普通民眾和戰區平民。由於技術設計和政策造成的層層不透明,我們理解軍事 AI 在戰爭中影響的能力正受到並將受到嚴重阻礙。這從頭到尾都是黑盒子。」

法律與 AI 研究所(Institute for Law and AI)高級研究員查理·布洛克(Charlie Bullock)告訴《連線》,OpenAI 的公開評論表明,五角大廈可能獲准進行某些形式的監控,這些監控在技術上被認為是合法的,例如從第三方公司購買美國用戶數據並使用 AI 進行分析。OpenAI 後來修改了協議條款以解決這一特定疑慮,但布洛克指出,在沒有看到完整協議條款的情況下,公眾基本上只能聽信 OpenAI 的一面之詞。

OpenAI 研究員諾姆·布朗(Noam Brown)在社群媒體貼文中表示:「週末期間變得很清楚,OpenAI 與國防部協議中的原始措辭留下了合理的疑問,特別是關於 AI 可能促成合法監控的一些新穎方式。」布朗接著表示,他現在計劃「更親自參與 OpenAI 的政策制定」。

在 OpenAI 刪除軍事用途全面禁令僅兩年多後,該公司似乎已經擁抱了國防合作夥伴關係。據報導,在週二的全體員工會議上,阿特曼告訴員工,公司無權決定國防部如何使用其人工智慧軟體。阿特曼還表示,他有興趣將公司的 AI 模型出售給北約(NATO)。

這是《模型行為》(Model Behavior)電子報的一個版本。在此閱讀之前的電子報。