背景
美國國防部(現改稱為戰爭部)近期將 AI 領先企業 Anthropic 列為「供應鏈風險」,禁止所有與聯邦政府合作的承包商、供應商或夥伴與該公司進行任何商業往來。此舉源於 Anthropic 拒絕移除其模型 Claude 中的安全防護機制,特別是針對「全自動化殺戮機器人」與「大規模國內監控」兩大紅線的限制,引發了政府與科技公司之間關於技術主權與道德底線的激烈衝突。
社群觀點
Hacker News 社群對此事件展現了極度分歧且充滿憂慮的觀察。許多討論者指出,政府將 Anthropic 定義為「供應鏈風險」的邏輯存在內在矛盾:一方面聲稱該公司威脅國家安全,另一方面卻又考慮引用《國防生產法》強制其提供服務,這顯示政府實際上認為 Claude 模型對國家安全至關重要。部分留言者認為這本質上是一場「勒索」或「權力展示」,政府試圖透過極端手段迫使私人企業屈服,而非基於真正的安全威脅。
針對 Anthropic 堅持的道德紅線,社群中出現了關於未來戰爭型態的辯論。支持 Anthropic 的觀點認為,防止 AI 在沒有人類干預的情況下做出生死決定是維持文明底線的必要舉措,若 AI 具備自動化殺戮與監控能力,將可能被用來對付國內抗議者或實施極權統治。然而,反對者則提出現實主義的擔憂,認為如果美國不開發全自動化武器,而中國或俄羅斯等競爭對手全力投入,美國軍隊將在未來的戰場上成為「坐以待斃的鴨子」。這種觀點認為,與其讓技術掌握在毫無底線的對手手中,不如讓具有安全意識的公司參與開發以降低風險。
此外,社群也高度關注此禁令對產業鏈的連鎖反應。由於亞馬遜(AWS)與 Google(GCP)等雲端巨頭皆與國防部有巨額合約,若禁令嚴格執行,這些平台可能被迫停止託管或轉售 Claude 模型,這將對 Anthropic 的商業模式造成毀滅性打擊。有觀點猜測,這可能是為其他更願意配合政府要求的競爭對手(如 xAI 的 Grok)掃清障礙。部分用戶則對 Anthropic 的原則立場表示敬佩,認為這將成為該公司在企業與消費者市場的獨特品牌標籤,甚至可能吸引歐洲等對 AI 監管較嚴格的地區張開雙臂歡迎其進駐。
最後,不少留言者感嘆美國已進入一個「法律與合約不再具有確定性」的時代。他們指出,當政府可以隨意宣布國家緊急狀態或利用行政命令干預私人企業的服務條款時,科技創新的環境將變得極其惡劣。這種「不聽話就懲罰」的治理風格,被部分社群成員視為共和體制衰落的徵兆,並預言未來 AI 領域將陷入更深層的政治站隊與權力鬥爭。
延伸閱讀
- Anthropic 官方聲明:詳細說明了與戰爭部溝通的過程以及堅持安全防護的原因。
- 國防聯邦收購補充條例(DFARS)252.239-7018:關於「供應鏈風險」的法律定義與適用範圍。
- 紐約時報相關報導:提及 Anthropic 是目前唯一在五角大廈機密系統上運行的 AI 公司。
- genai.mil:美國政府官方的生成式 AI 資源入口網站。