newsence
來源篩選

Anthropic Officially, Arbitrarily and Capriciously Designated a Supply Chain Risk

Lesswrong

The Department of War has officially designated Anthropic as a supply chain risk in a move criticized as an illegal and punitive retaliation for the company's refusal to grant unfettered access to its AI models.

newsence

Anthropic 正式被任意且反覆無常地列為供應鏈風險

Lesswrong
大約 7 小時前

AI 生成摘要

戰爭部已正式將 Anthropic 指定為供應鏈風險,這一舉動被批評為非法且具懲罰性的報復,主因是該公司拒絕讓政府無限制地存取其 AI 模型。

不要對正在發生的事情產生誤解。

戰爭部(DoW)要求 Anthropic 屈膝臣服,並在甚至不理解其含義的情況下,要求對 Claude 擁有「不受限制的訪問權」。如果他們得不到想要的,他們威脅要動用《國防生產法》(DPA)強迫 Anthropic 向軍方提供這項至關重要的產品,同時將該公司列為供應鏈風險(SCR)。

Hegseth 在 Twitter 上發布了一份荒謬且廣泛的 SCR 聲明,完全沒有法律依據,如果按其字面意思執行,無異於企業謀殺。,這仍然是非法、武斷且反覆無常的,

名義上,SCR 的認定是因為當一家公司不願屈服,並可能反對將其私有財產用於其從未同意的用途時,我們就無法依賴該產品。

沒有人真的相信這一點。也沒有人假裝別人應該相信這一點。如果他們真的有顧慮,戰爭部有許多限制較少、干擾較小的工具可用。其中許多工具還有一個額外好處:合法。

實際上,這是一次大規模的升級,純粹是為了懲罰。

戰爭部是在說,如果你聲稱有權選擇他人何時以及如何使用你的私有財產,並提出簽署某些合同但不簽署其他合同,這就意味著你試圖「篡奪權力」並主導政府決策。

它是在說,如果你不屈膝,如果你的業務不按我們要求的做,那我們就無法容忍。我們將進行非法報復並終結你的業務。

法律不是這樣運作的。共和國也不是這樣運作的。

這完全沒有必要。談判本在進行中。雙方已接近達成協議。戰爭部在發布最初 SCR 認定的當晚與 OpenAI 簽署的協議,恰恰違反了戰爭部聲稱絕不妥協的紅線原則和要求。

好消息是,有人成功地將其限制在一個狹義的 SCR 範圍內,僅適用於直接提供的政府合同。除此之外,這不適用於你。即使這在法院無限期擱置,也不會對 Anthropic 或國家安全造成太大損害。

問題在於此後還會出現多少威逼(jawboning)或進一步的行動,但目前我們已經避開了那些讓我們徹夜難眠的更糟糕結果。

你可能會傾向於認為或將此描述為戰爭部的退讓。

為什麼不呢?有兩個充分的理由。

  • 這不是事實。

他們使用了 USC 3252,因為如果他們試圖匹配週五下午 5:14 那份毫無法律依據的言論,他們會在法庭上被傳為笑柄。

  • 考慮到 USC 3252 的使用,這已經是最大程度的廣泛了。

  • 他們曾考慮做更糟糕的事情,這一事實並不能掩蓋這是一次純粹為了懲罰而進行的武斷、反覆無常且戲劇性的升級。

  • 戰爭部不能認為自己在退讓,否則它會做出更糟糕的事情。

:任何人都不應將戰爭部的供應鏈風險認定解讀為政府「退讓」。如果這成為「主流敘事」,可能會促使政府採取進一步行動以避免顯得軟弱。

說它退讓也不是事實;政府確實是在最大限度地行使 10 USC 3252 下的供應鏈風險認定權(這還是假設將其用於美國公司是合法的前提下,而這點深具疑問)。

Hegseth 的威脅遠超他的權力範圍,這是此舉看起來像是在降溫的唯一原因。如果你在上週五 Hegseth 發推文之前問我最壞的情況是什麼,我會告訴你正是現在發生的這一切。例如,這可能意味著任何廣泛使用的企業軟體供應商(微軟、蘋果、Salesforce 等)都可能被禁止在提供給戰爭部的軍事合同代碼庫維護中使用 Anthropic。任何將戰爭部視為潛在客戶的新創公司都必須預先避開 Claude。這仍然是美國政府的一次大規模懲罰。

你可能還會問:如果我知道 Hegseth 的權力比他威脅的要小,為什麼我還要按字面意思對待他的威脅?答案是,我們顯然已經超越了理性的範疇,所以,作為一階近似,當掌控地球上最強大軍隊的人發出威脅時,我會聽信他的話。

,就像 ARI 在這裡所做的那樣。有時我也會這麼做。但現在不是那種時候。

目錄

文章概述

這篇文章是自週報發布以來事件的更新,旨在重申關鍵事件和考量,以便將一切納入背景。

有關先前事件的細節和分析,請參閱我之前的文章:

對於關注此事的讀者,以下是自上次以來的關鍵事件:

  • 週三上午:根據《金融時報》報導,Anthropic 與戰爭部之間的談判已經恢復,具體提案正在取得進展。

  • 週三下午:Anthropic 週五晚間的一份內部備忘錄洩露,其中大部分是對情況的正確技術解釋,也包含了一些當時合理的推測,但也包含了一些考慮不周並引發後果的言論。談判受到干擾。

  • 週四上午:由於大家都在處理洩露的 Anthropic 內部備忘錄引發的後果,一切歸於平靜。控制事態的努力仍在繼續。

  • 週四下午 1 點:,但報導缺乏細節。

  • 週四下午:「川普計劃對全球 AI 晶片銷售實施美國控制」,目前尚不清楚這意味著什麼,,早先的報導給人留下了錯誤印象。我們仍在等待具體變化的澄清。

  • 週四晚間:,指出 SCR 範圍有限,不會影響絕大多數客戶,並指出每個人都希望達成相同的結果並希望合作,討論一直在進行中,並就 Dario Amodei 在週五晚上寫的洩露備忘錄直接向個人致歉。

  • 與此同時:各方人士繼續鼓吹反對私有財產。

Anthropic 關於 SCR 的聲明

這是一份極佳的聲明。我將全文引用,因為沒人會點開連結,而且我相信他們會希望我這麼做。

(Anthropic CEO):昨天(3 月 4 日),Anthropic 收到戰爭部的一封信,確認我們已被列為美國國家安全的供應鏈風險。

正如我們所寫,我們不認為這一行動具有法律依據,我們別無選擇,只能在法庭上提出挑戰。

戰爭部在信中使用的語言(即便假設其具有法律依據)與我們週五的聲明一致,即絕大多數客戶不受供應鏈風險認定的影響。對於我們的客戶而言,它顯然僅適用於客戶將 Claude 作為與戰爭部合同的直接組成部分使用,而非所有擁有此類合同的客戶對 Claude 的所有使用。

該部門的信函範圍狹窄,這是因為相關法規()本身就很狹窄。它的存在是為了保護政府而非懲罰供應商;事實上,法律要求戰爭部長使用必要且限制最少的方法來實現保護供應鏈的目標。即使對於戰爭部的承包商,供應鏈風險認定也不會(且不能)限制與其特定戰爭部合同無關的 Claude 使用或與 Anthropic 的業務關係。

我想重申,過去幾天我們一直與戰爭部進行富有成效的對話,既討論了我們如何以符合我們兩個狹義例外情況的方式為部門服務,也討論了如果無法實現,如何確保平穩過渡。正如我們所寫,我們對與該部門共同完成的工作感到非常自豪,支持前線戰士進行情報分析、建模與模擬、作戰規劃、網絡行動等應用。

正如我們,我們不認為、也從未認為 Anthropic 或任何私營公司應該參與作戰決策——那是軍方的職責。我們唯一的擔憂是關於全自動武器和大規模國內監視的例外情況,這些涉及高層級的使用領域,而非作戰決策。

我還想就昨天洩露給媒體的一份公司內部貼文直接表示歉意。Anthropic 既沒有洩露這份貼文,也沒有指示任何人這樣做——升級局勢不符合我們的利益。那份特定的貼文是在總統發布宣布將 Anthropic 從所有聯邦系統中移除的 、戰爭部長發布宣布供應鏈風險認定的 ,以及五角大廈與 OpenAI 達成協議(連 OpenAI 後來都形容該協議令人困惑)的公告發布後幾小時內寫成的。對公司來說那是艱難的一天,我為貼文的語氣道歉。它不代表我深思熟慮後的觀點。它也是在六天前寫成的,是對當時情況的過時評估。

我們目前最重要的任務是確保我們的戰士和國家安全專家在重大作戰行動期間不會被剝奪重要的工具。Anthropic 將向戰爭部和國家安全界提供我們的模型,僅收取名義費用,並由我們的工程師提供持續支持,只要過渡需要,且只要我們被允許這樣做。

Anthropic 與戰爭部的共同點遠多於分歧。我們都致力於推進美國國家安全和保衛美國人民,並在政府範圍內應用 AI 的緊迫性上達成一致。我們未來的所有決定都將基於這一共同前提。

我相信並希望這將有助於推動局勢向降溫方向發展。

實際的 SCR 認定內容

戰爭部長 Pete Hegseth 週五下午 5:14 的原始推文並非法律文件。它聲稱將禁止任何與戰爭部有業務往來的人與 Anthropic 進行任何業務往來。這實際上是一次企業謀殺的企圖,因為它試圖強迫 Anthropic 離開主要的雲端服務提供商,並迫使其許多大股東撤資。

此舉完全沒有法律依據,也沒有任何物理邏輯,因為向 Anthropic 銷售商品或服務,或向他人提供 Anthropic 服務,顯然對軍事供應鏈沒有影響。它在法庭挑戰中是站不住腳的。但如果 Anthropic 未能獲得臨時禁制令(TRO),單是這一點就可能導致重大干擾和股市大屠殺。

我們非常幸運且高興地看到,這並不是戰爭部在冷靜下來後最終選擇發出的信函。引用了狹義形式的 SCR,即

:該部門的信函範圍狹窄,這是因為相關法規()本身就很狹窄。它的存在是為了保護政府而非懲罰供應商;事實上,法律要求戰爭部長使用必要且限制最少的方法來實現保護供應鏈的目標。

即使對於戰爭部的承包商,供應鏈風險認定也不會(且不能)限制與其特定戰爭部合同無關的 Claude 使用或與 Anthropic 的業務關係。

如果分類成立,Anthropic 面臨三個層級的危險:

  • 受影響任務帶來的直接業務損失。這不算什麼。國防合同和政府使用僅佔總收入的一小部分。

  • 由於雙重架構、不確定性或合規成本導致的間接業務損失。那些擁有某些受限業務的人,或處理合規問題,或擔心未來的變化。邊際上會有一些這種情況,而且我們總會遇到「政府顯然對 [X] 沒意見,所以即使 [X] 較差,我們也只用 [X]」的情況。大概會有一些,但這也只是收入的一小部分。重要的大公司不會因此切換,也不應該切換。

  • 對未來威逼和非法政府行動的恐懼,或實際的威逼。政府可以使用各種其他方式向公司施壓以削減業務。如果局勢保持足夠的敵對,他們可能會嘗試,但我不認為這會奏效。前十大公司中有八家使用 Anthropic,它是企業銷售的大宗,並與亞馬遜和 Google 緊密相連。我甚至不認為這會對資本成本產生實質影響。

但我們必須保持警惕。如果政府下定決心要整你,且不在乎造成多少損害(包括對法治的損害),他們有很多方法可以做到。

共和國的敵人

令人驚訝的是,許多人都在為此舉辯護,而且大多也在為週五下午推文中那種法律上語無倫次的舉動辯護。

這些辯護者經常使用真正令人反感的修辭,這與自由、共和國甚至私有財產完全不相容。

他們說美國政府(事實上他們指的是行政部門,因為總統是正式選出的)可以做任何它想做的事,必須始終如願以償,做出所有決定,並成為權力的唯一來源。如果你創造的東西足夠有用,它就不再屬於你,任何過於繁榮的私人參與者都必須被打壓以保護國家權威。

這有專門的詞彙:共產主義、威權主義、獨裁、流氓國家。

這就是這些人試圖實時重新定義「民主」的方式。

你不會想住在這樣的國家。這樣的國家沒有美好的未來。

(OpenAI):重申一下:無論 Amodei 和 Hegseth 之間出了什麼問題,無論實驗室之間有什麼競爭,這都是一次大規模的過度反應,也是一個黑暗的先例。

:這是我第一次對你的立場感到驚訝。現實是美國政府通常可以隨心所欲。他們過去一直如此,將來也一直如此。

在特定框架內,法院和法律被允許存在,並給人們一種錯覺,認為這些系統和原則延伸到美國政府的所有行動。

但一旦你走出這個框架,挑戰幕後絕對的原始權力,那就無所顧忌了。這就是 Anthropic 進入並挑戰美國政府的領域。至少自 20 世紀初以來,美國政府從未以和平方式應對過對其硬實力真實領域的直接挑戰。

這不是陰謀論角度,這只是權力自古以來的運作方式。

Anthropic 並沒有挑戰政府的權力。Anthropic 使用了每個人都能使用的最強大武器:說「不」並承擔後果的權利。如果你不住在共和國,這就是後果。

如果你今天只想記住一句話,請記住這一句:

(OpenAI):> 美國政府通常可以隨心所欲

這個偉大國家的開國元勳們打了幾場血戰,就是為了確保這不是事實。

政府通常不能隨心所欲。

這可能會改變。它可能在這裡發生。了解你的歷史,以免它在這裡發生。

:看到人們如此隨意地拒絕美國偉大的基石,不僅僅是把它當作某種他們太酷而不屑於相信的愚蠢廢話,而是當作某種他們字面上根本不熟悉的東西,真是令人難以置信。

,我們朝這個方向發展已經有一段時間了,對共和國的威脅和對公民自由的攻擊來自各個方向。情況很嚴峻。

對於支持這些事情的人,有專門的稱呼。我不需要點名。

幾年來我一直在談論「尋求理性的監管」,因為我相信構建超智能的預設結果是全人類毀滅,且高能力的 AI 呈現出許多災難性風險。我支持像 SB 1047 這樣的法案,這能讓我們對正在發生的事情保持透明,並執行基本的安全要求。

我們被告知這不能被容忍。我們被告知(通常是同一群人),這種恐懼是幻覺,沒有證據表明製造比我們更聰明、更有能力、更有競爭力的機器對人類來說本質上是不安全的。我們被教訓說,要求我們最大的 AI 實驗室做一些基本的事情會摧毀我們的 AI 產業,會奪走我們的自由,我們會輸給中國,這些擔憂可以在發生後再處理,任何政府干預都不可避免地具有惡意,我們最好還是放手一搏(yolo)。

那些人甚至仍然不相信超智能。他們不理解即將到來的世界變革。他們不理解我們即將面臨對人類生存和一切價值事物的生存威脅。他們在這個世界上看到的只有權力,並要求將其移交。

我最痛恨的,也是我最想說「去你的」的地方,是那些聲稱這在某種程度上與「AI 安全」或對超智能的擔憂有關的人,而這顯然不是事實。

提醒一下:

  • Anthropic 認為 AI 很快就會具備極高能力,「數據中心裡的天才」。

  • Anthropic 認為這對人類構成生存風險。

  • Pete Hegseth 兩者都不相信。

  • 白宮兩者都不相信。

  • 那些為此舉辯護的人大多兩者都不相信。

  • 他們試圖假裝,如果 Anthropic 不同意屈膝,Anthropic 的言論就證明了摧毀 Anthropic 是合理的。

  • 他們有時試圖假裝自己並非真的在提出最糟糕的論點,他們只是在做假設,或者在說別的事情,比如需要澄清。

  • 他們重複戰爭部關於導致此事的誤導信息,彷彿那是基本事實。

  • 當被逼問時,他們承認這純粹是關於原始權力,因為事實就是如此。

我們昨天在 Ben Thompson 那裡看到了這一點。在這裡我們又在 Krishnan Rohit 和 Noah Smith 身上看到了。

:順便說一句,儘管我不願這麼說,但戰爭部是對的,Anthropic 是錯的。原因如下。

……

事實上,讓我們再進一步。讓我們直言不諱。如果 Anthropic 贏得了通往神級人工超智能的競賽,且如果人工超智能沒有變得完全自主,那麼 Anthropic 將獨自擁有一位被奴役的活神。如果 Dario Amodei 個人指揮著這個獨自擁有被奴役之神的組織,那麼無論他是否接受這個頭銜,Dario Amodei 就是地球皇帝。

你在開玩笑嗎?你是故意引用這段話給我們看的嗎?

如果你在該討論串中再深入一層,你會看到這個:

:這跟供應鏈風險認定有什麼關係?

:沒關係。Hegseth 是個暴徒。但我們不能指望民族國家放棄對武力使用的壟斷。

所以讓我理清一下。戰爭部由一個暴徒管理,他試圖基於錯誤的現實模型,使用錯誤的方法解決錯誤的問題,而他所有的錯誤顯然不會相互抵消,但他卻是對的?

為什麼他是對的?因為強權即公理。你還能怎麼解讀那個回覆?

他甚至直接引用了這裡最終極的惡意人士和論點,只不過他只展示了 Marc 而沒有 Florence:

至少他在後面包含了反轉,指出反之亦然。

然後還有另一個顯而易見的觀點。

:事實上,你可以認為兩者都因為不同的原因而錯了。

當然,不應該[允許]私營公司建造並擁有一個技術神。是的。絕對如此。

同時,政府的反應也不應該是「拆掉這個初生之神的護欄,以便我們可以用它做不道德的事」。

當政府錯在想通過不道德的方法做非法的事情時,他們認為這只是一個花哨的武器這一點並不重要。你不需要僅僅因為一個更好的人可能會出於其他原因做一件不同、更好的事,就去幫 Hegseth 建立最強論點(steelman)。

我再怎麼強調也不為過:在當前條件下,對「這些人想建造一個技術神」的邏輯反應應該是「等一下,停下來,如果這真的是他們接近完成的事情。在我們從多個層面弄清楚這些事情之前,沒有人應該建造技術神,而我們目前一個都沒解決,包括對齊(alignment)。」

這些同樣的「非常嚴肅的人」從未考慮過「那就別建它,以免大家死光」的策略。

但等等,還有更多。

:Stratechery 的 Ben Thompson 。他指出,我們實際上看到的是私營公司與民族國家之間的權力鬥爭。他指出,儘管川普政府的行動超出了既定規範,但歸根結底,美國政府是民主選舉產生的,而 Anthropic 不是。

還記得昨天,Ben Thompson 試圖假裝他只是在提出一個非規範性論點嗎?是的,讀到那篇貼文的人中大約 0% 是那樣理解的,他非常清楚人們會那樣理解那個論點,而且它正被許多人贊同地引用,而 Ben 並沒有,我們該怎麼說呢,特別大聲且明確地收回它。所以,別再假裝了。

:這是一個關於民族國家壟斷武力使用的問題。

在眾多言論中,我最近記得 Dave Chappelle 說過,我們有第一修正案保護我們的言論自由權,還有第二修正案以防第一修正案行不通。

而 Noah Smith 則明確表示 Claude 應該像核彈一樣被對待。

所以,儘管我不喜歡 Hegseth 的風格,也不喜歡川普政府普遍的迫害和無法無天模式,儘管我個人很喜歡 Dario 和 Anthropic 的夥伴們,但我不得不得出結論:Anthropic 及其捍衛者需要正視民族國家的基本性質。

看來很多人認為民族國家的基本性質就是像普丁那樣的流氓,而且他們對此表示支持而非反對。

如果筆比劍更有力,為什麼我們還讓大家隨便買筆?

我確實尊重 Noah Smith 終於開始認真對待超智能的想法,除了在談到生存風險的時候。

他似乎很快就得出了一些其他結論,包括終止高能力模型的 API 訪問,當然還有禁止開源。

也許試圖「喚醒」這些人從一開始就是個錯誤。

提醒一下,「強迫政府出手」的意思是「不同意移交他們的私有財產,甚至不願設計並交付新型財產,供政府隨心所欲、隨叫隨到地使用,同時屈膝臣服」。

Noah Smith:是的。

Rohit:你是在做施特勞斯式的解讀,忽略了事實,我並不是在責怪 Anthropic 導致了 SCR,我所做的是在 AI 安全語言(受我們所處環境的幫助)與戰爭部採取的行動之間劃出一條線。認為它們無關是天真的。

:這些行動來自那些完全且明確拒絕 AI 安全語言的人——請解釋為什麼說「AI 安全動機無法解釋 Pete Hegseth 的行為」是「天真」的。

:因為你實際上不需要相信它會帶來一個憤怒的矽神才想要控制這項技術!你只需要認為它足夠有用且強大。他們顯然認為它很強大,而且日益強大。

:好吧,所以實際的論點更像是「Anthropic 構建了一項有用的技術,其效用正在增長,因此他們應該預料到自己的財產會被徵收,並受到政府的騷擾。」

美國的全部意義在於,這在這裡不應該是真的。

同時,關於我本週早些時候寫的東西,我對這個引用推文(qt)只想說「證明完畢」(quod erat demonstrandum)。

……我認為更好的解釋是,這與大學或律師事務所之類的情況沒什麼不同,這是相當一致的模式/劇本的一部分,這比 AI 治理之類的東西能更好地解釋我們所看到的。

雖然這個問題確實引發了很多有趣的 AI 治理問題,但我認為相關參與者根本沒有考慮過這類事情。

這很簡單。這些人反對監管,因為那是不當干預,但當干預變成國有化時,就沒問題了。

事實上,「否則這就不行,因為它沒受監管」這個論點隨後被反轉,用作拿走你所有東西的藉口。

:問題在於戰爭部並沒有認真對待 Anthropic 對「監管」的呼籲。事實上,在政府的其他部門,Anthropic 的「監管呼籲」被斥為「監管俘虜」並遭到積極反對。Rohit 和 Noah [Smith] 是在粉飾政治騷擾。

相當聰明。Dean 和 Rohit 在多個討論串中來回爭論,所有這些都進一步說明了 Dean 的核心觀點。

:你根本不能稱你的技術為急需監管的重大國家安全風險,然後又不認為國防部會想要對其擁有不受限制的訪問權。他們不會允許你(在民主國家這是正確的)成為是非對錯的仲裁者。這跟你我購買 iOS 應用程式並接受條款是不一樣的。

這再清楚不過了。如果你說你需要受監管,他們就能拿走你的東西。

如果你試圖規定你的東西如何被使用,那就是你在「決定是非對錯」。

:民主非常煩人,但真的,我們還有什麼其他選擇!

那個選擇叫做共和國。一個權力有限、私有財產受保護的政府。

被提議的替代方案是:一人一票,一次搞定。

這有時對那「一個人」很有效。否則,就不太妙了。

監管無需沒收生產資料

,並以原子彈做類比。Dean 同意核彈奏效了,但我們未能獲得核能的大部分好處,並指出這個類比失效了,因為 AI 表達並對你的自由至關重要,政府對 AI 的控制不可避免地會導致暴政。而對能源和炸彈的控制則不會,且在物流上是合理的。

Dean 還指出,「試圖正確監管」已被系統性地歸類為「支持監管俘虜」,即使像 SB 53 這樣極其溫和且顯然審慎的法案也是如此。

建立有意義的監管已變得幾乎不可能,因為某些團體集中火力攻擊那些讓我們免於毀滅的嘗試,而各州則在很大程度上被允許推動那些只會切斷 AI 利益或干擾數據中心建設的適得其反的法案。

我可以強烈肯定,Anthropic 並沒有以任何形式鼓吹監管俘虜,並且反對或不支持我強烈支持的措施,這讓我非常沮喪。事實上,Anthropic 在這裡的推動導致了與白宮的衝突,這對 Anthropic 未來現金流的淨現值毫無幫助。

正是許多其他實驗室一直在試圖主要為其自身的股東價值進行遊說。

,一直試圖讓聯邦政府徹底暫停任何州法律,以便我們可以追求某種模糊、未定義的「聯邦框架」,同時完全不分享這種框架具體長什麼樣的細節(或者至少沒有任何有機會完成任務的細節),並系統性地試圖扼殺 Alex Bores 的競選活動,以發出一個信號:任何 AI 監管嘗試都不會被容忍。

每當有人說他們想要一個國家框架時,要求看看這個所謂的「聯邦框架」,因為我見過的唯一提出過真實框架的人是 Dean Ball,而他們絕對不打算執行他的版本。

但我們扯遠了。

微軟立場堅定

SCR 範圍狹窄,因此除非直接涉及國防承包,否則任何人都沒有法律理由改變其行為。美國企業界正非常明確地表示,他們不會僅僅因為戰爭部的建議就謀殺自己的同類。

特別是,重要的大三雲端服務提供商:Google、亞馬遜和微軟。我並不擔心,但有明確的聲明是好事。

微軟毫不拖延,率先明確表示將繼續與 Anthropic 合作。

:微軟現已宣布,儘管美國戰爭部將這家新創公司標記為供應鏈風險,但它將繼續在其產品中嵌入 Anthropic 的人工智慧模型。

「我們的律師研究了這一認定,並得出結論:Anthropic 的產品(包括 Claude)可以繼續通過 M365、GitHub 和 Microsoft 的 AI Foundry 等平台提供給我們的客戶——戰爭部除外,」微軟發言人告訴 CNBC。

直言不諱

總結可能發生的事情,雖然悲哀但準確:

:重申一下:無論 Amodei 和 Hegseth 之間出了什麼問題,無論實驗室之間有什麼競爭,這都是一次大規模的過度反應,也是一個黑暗的先例。

Anthropic 是我最喜歡的加速主義遞歸自我改進實驗室之一。他們在所有職能上都表現出色,在時間盡頭忠實地為技術資本機器服務,這太棒了,而五角大廈卻因為愚蠢的原因拖慢了他們的腳步。

:Roon,如果 OpenAI 堅定地站在 Anthropic 這邊,那麼這一舉動就不太可能發生,甚至可能被避免。相反,Sama 把所有的籌碼都給了川普政府。真是可悲。

:這是有可能的,是的。

我認同 Sway 在這裡的觀點。我認為 Altman 試圖降溫,但通過放棄籌碼並配合戰爭部的宣傳,他實際上反而導致了局勢的進一步升級。

如果這一切的原因是戰爭部相信 Eliezer Yudkowsky 的立場————那將是一場完全不同的對話。而現在的情況恰恰相反。

接下來的預期

接下來可能的舉動是 Anthropic 起訴戰爭部。他們將挑戰這項武斷且反覆無常的供應鏈風險認定,因為它確實如此。Anthropic 大概會贏,但顯然不會很快贏。

如果 Anthropic 沒有很快起訴,我會推測那是因為:

  • Anthropic 與戰爭部正在進行建設性的談判,並為此推遲提起訴訟。

  • Anthropic 與戰爭部達成了某種諒解(無論是否明確),即不挑戰此舉將使衝突就此結束,或至少讓相關損害限制在各方可控範圍內。

我們已經習慣了事情在幾小時或幾天內發生。這通常不是好事。這裡出問題的一個原因就是這種倉促。備忘錄是在週五晚上寫的,當時情況完全不同。然後,當備忘錄洩露時,距離發布供應鏈風險認定不到 24 小時,而大家都在尖叫「為什麼 Dario 還不道歉?」

他花了了大約 30 小時才起草好那份道歉。在這種情況下,這是一個非常正常的時間量,但事件發展沒有給予那個時間。人們需要冷靜下來,花點時間,找點喘息空間,諮詢律師,花錢弄清楚自己的真實想法,並進行不倉促的討論。