newsence
來源篩選

Department of War Designates Anthropic Supply Chain Risk

Hacker News

The Department of War has officially designated the AI startup Anthropic as a potential supply chain risk, signaling increased government scrutiny over artificial intelligence infrastructure.

newsence

戰爭部將 Anthropic 列為供應鏈風險對象

Hacker News
大約 19 小時前

AI 生成摘要

戰爭部已正式將人工智慧新創公司 Anthropic 指定為潛在的供應鏈風險,這標誌著政府對人工智慧基礎設施的審查日益嚴格。

背景

美國國防部(現被稱為戰爭部)近期將人工智慧公司 Anthropic 列為「供應鏈風險」,並禁止所有與聯邦政府合作的承包商使用其技術。此舉源於 Anthropic 拒絕移除其模型 Claude 中的安全限制,特別是針對「全自動化殺戮機器人」與「大規模監控」的紅線規範,導致雙方在軍事應用權限上陷入僵局。

社群觀點

Hacker News 的討論圍繞著政府權力濫用、企業倫理以及地緣政治競爭展開。多數評論者對政府的舉動感到震驚,認為將一家美國本土公司標記為「供應鏈風險」是前所未有的極端手段。網友指出,這種標籤通常保留給敵對國家,而政府一方面稱 Anthropic 為安全威脅,另一方面又威脅動用《國防生產法》強制其移除安全限制,這種邏輯顯然自相矛盾:如果 Claude 是風險,為何又被視為國家安全不可或缺的關鍵技術?

許多人認為這是一場政治勒索,旨在懲罰不願服從的企業。有觀點指出,這反映了現任政府對「絕對服從」的要求,而非理性的政策討論。部分網友將此與 Nvidia 的案例對比,提到 Nvidia 曾因支付高額出口稅或政治捐款而獲得出口豁免,暗示這類行政命令背後可能存在利益交換或政治站隊。此外,社群對 Anthropic 堅守原則表示讚賞,認為拒絕讓 AI 具備自主殺戮能力是正確的倫理選擇,但也擔心這會導致 Anthropic 在商業競爭中失利,特別是當 xAI 的 Grok 被視為潛在的替代者,可能藉此機會全面接管政府與國防市場。

然而,也有少數聲音理解國防部的立場。支持者認為,軍方不能接受關鍵技術受制於私人公司的道德規範,如果 AI 系統在戰場關鍵時刻因「安全限制」拒絕執行指令,將構成實質的國防風險。部分討論則轉向更深層的擔憂,認為如果美國公司因倫理限制而縮手,敵對國家可能毫無顧忌地開發自主武器,最終導致美國在軍事科技競賽中落後。

最後,社群對此事件的長期影響感到悲觀。有人預測這將引發 AI 產業的動盪,甚至導致人才外流至歐洲,因為歐洲可能更歡迎重視安全與倫理的實驗室。同時,也有工程師分享了在政府部門內部的觀察,指出過度依賴 AI 生成代碼(如 Claude Code)來修復基礎設施可能帶來的系統性風險,若 AI 產出的代碼缺乏人類審核且只有 AI 能理解,一旦供應鏈被切斷,後果將不堪設想。

延伸閱讀

  • Anthropic 執行長 Dario Amodei 針對與戰爭部討論過程的正式聲明:https://www.anthropic.com/news/statement-department-of-war
  • 紐約時報關於 Anthropic 在五角大廈機密系統運作的報導:https://www.nytimes.com/2026/02/27/technology/defense-department-anthropic.html
  • 國防部長 Pete Hegseth 關於 Grok 進入機密網絡的相關公告。