The author analyzes the conflict between the Department of War and Anthropic, suggesting the move reflects a mix of political bribery and a clumsy attempt at AI nationalization. It highlights the severe national security risks of relying on AI companies that may prioritize their own interests or lack true loyalty to the state.
戰爭克勞德
Lesswrong
大約 3 小時前
AI 生成摘要
我分析了國防部與 Anthropic 之間的衝突,認為這反映了政治賄賂與笨拙的 AI 國有化嘗試。這凸顯了依賴 AI 公司所帶來的嚴重國家安全風險,因為這些公司可能優先考慮自身利益,或對國家缺乏真正的忠誠。
他們威脅說,如果我們維持這些安全防護措施,就要將我們從他們的系統中移除;他們還威脅要將我們列為「供應鏈風險」——這是一個專門針對美國敵對國家的標籤,以前從未應用於美國公司——並援引《國防生產法》強制移除安全防護。這後兩項威脅本質上是矛盾的:一個將我們標記為安全風險;另一個則將 Claude 標記為對國家安全至關重要。
雖然同時執行這兩項威脅可能會涉及發送相互矛盾的指令,但我認為提出這兩項威脅本身並無矛盾之處。
這種情況最可怕的地方在於,AI 存在多重國家安全風險。
很有可能在不久的將來,擁有最強大的 AI 將成為軍事力量最重要的因素之一。這幾乎可以證明使用《國防生產法》是合理的,但問題在於如何驗證軍方獲得的 AI 是否會按照他們想要的方式運作。
還存在一種真實的風險,即 AI 公司可能會利用其部署在軍隊中的 AI 發動政變。請記住,奧特曼在方面表現得比川普更成功。這種風險或許可以透過一些非常有選擇性地使用供應鏈風險指令來緩解(即與赫格塞斯目前的使用方式截然相反的做法)。
我看不出有什麼能阻止這兩種風險同時變得重要。
川普政府對 AI 的重視程度不足以應對這其中的任何一種風險。
戰爭部迫切需要完全控制任何用於控制其武器的 AI 開發。然而,他們一直無法聘請到能跟上尖端公司步伐的員工。最近的風波將使這類招聘變得更加困難。而且他們越接近將 OpenAI 國有化,核心員工就越有可能離職。
我能找到最接近正確答案的方案是:戰爭部應該使用多種 AI,包括至少一種開放權重(open weight)的 AI,以及至少一種在軍方內部開發的 AI,且沒有任何單一 AI 的控制權接近半數部隊。