Statement from Dario Amodei on Anthropic's Discussions with the Department of War
Lesswrong
Anthropic CEO Dario Amodei outlines the company's commitment to US national security while maintaining firm boundaries against using AI for mass domestic surveillance and fully autonomous weapons. Despite government threats to label the firm a supply chain risk, Anthropic refuses to remove these specific safeguards, citing democratic values and current technological limitations.
Anthropic 執行長 Dario Amodei 針對與戰爭部討論事宜之聲明
Lesswrong
1 天前
AI 生成摘要
我深信利用人工智慧保衛美國及其他民主國家具有存在意義上的重要性,因此我們積極向政府提供技術,但我們堅持不將 AI 用於大規模國內監視與全自動武器。儘管面臨被標記為供應鏈風險或徵用國防生產法的威脅,我們仍無法違背良知撤除這些安全防線,並希望戰爭部能重新考慮其立場。
我深信,利用 AI 保衛美國及其他民主國家,並擊敗我們的專制對手,具有存亡攸關的重要性。
因此,Anthropic 一直積極地將我們的模型部署於戰爭部(Department of War)及情報體系。我們是將模型部署於美國政府的機密網路中,也是首家將模型部署於的公司,並且是首家為國家安全客戶提供的公司。Claude 已於戰爭部及其他國家安全機構,用於執行關鍵任務應用,例如情報分析、建模與模擬、作戰規劃、網路行動等。
Anthropic 也採取行動捍衛美國在 AI 領域的領先地位,即便這有損公司的短期利益。我們選擇放棄數億美元的收入,以切斷(其中部分公司已被中國軍事公司),關閉了試圖濫用 Claude 的,並倡導對以確保民主優勢。
然而,在極少數情況下,我們認為 AI 可能會破壞而非捍衛民主價值。某些用途也超出了當今技術能夠安全且可靠執行的範圍。在我們與戰爭部的合約中,從未包含以下兩種使用案例,我們認為現在也不應包含:
大規模國內監視。 我們支持將 AI 用於合法的國外情報和反情報任務。但將這些系統用於大規模「國內」監視與民主價值不相容。AI 驅動的大規模監視。就目前此類監視在法律上可行而言,僅是因為法律尚未跟上 AI 快速增長的能力。例如,根據現行法律,政府可以從公開來源購買美國人行動、網頁瀏覽和社交關係的詳細記錄,而無需取得搜查令;這種做法引發了隱私疑慮,並在國會引發了兩黨的反對。強大的 AI 使得將這些分散、單獨看似無害的數據,自動且大規模地彙整成任何個人生活的完整圖像成為可能。
全自動武器。 半自動武器(如今日在烏克蘭使用的那些)對保衛民主至關重要。甚至「全」自動武器(完全排除人類參與,並自動選擇與攻擊目標的武器)也可能被證明對我們的國防至關重要。但就目前而言,領先的 AI 系統還不夠可靠,不足以驅動全自動武器。我們不會在知情的情況下提供會使美國戰士和公民面臨風險的產品。我們曾提議與戰爭部直接進行研發合作,以提高這些系統的可靠性,但他們並未接受此提議。此外,,全自動武器無法被信賴能行使我們訓練有素的專業部隊每天展現的關鍵判斷。它們需要在適當的防護欄下部署,而這些防護欄目前並不存在。
據我們所知,到目前為止,這兩個例外情況並未成為加速我軍採用和使用我們模型的障礙。
戰爭部已,他們將僅與同意「任何合法用途」並移除上述案例防護措施的 AI 公司簽約。他們威脅如果我們維持這些防護措施,將把我們從其系統中移除;他們還威脅要將我們列為「供應鏈風險」——這是一個專門保留給美國對手的標籤,此前從未應用於美國公司——「並且」援引《國防生產法》(Defense Production Act)強制移除防護措施。後兩項威脅:一個將我們標記為安全風險;另一個則將 Claude 標記為對國家安全至關重要。