The trap Anthropic built for itself
Techcrunch
Anthropic, OpenAI, Google DeepMind and others have long promised to govern themselves responsibly. Now, in the absence of rules, there's not a lot to protect them.
Techcrunch
Anthropic, OpenAI, Google DeepMind and others have long promised to govern themselves responsibly. Now, in the absence of rules, there's not a lot to protect them.
AI 生成摘要
Anthropic、OpenAI、Google DeepMind 等公司長期以來一直承諾會負責任地自我管理。現在,在缺乏規則的情況下,已經沒有多少力量可以保護他們了。
週五下午,就在這場訪談即將開始之際,一則新聞警報閃過我的電腦螢幕:川普政府正斷絕與 Anthropic 的聯繫。這家總部位於舊金山的 AI 公司由 Dario Amodei 和其他因擔憂安全問題而離開 OpenAI 的研究人員於 2021 年創立。國防部長 Pete Hegseth 援引了一項旨在應對外國供應鏈威脅的國家安全法,將該公司列入黑名單,禁止其與五角大廈做生意。此前,Amodei 拒絕讓 Anthropic 的技術被用於對美國公民進行大規模監控,或用於可在無人類干預下選擇並殺傷目標的自主武裝無人機。
這是一連串令人瞠目結舌的發展。Anthropic 現在不僅將失去一份價值高達 2 億美元的合約,還被禁止與其他國防承包商合作。此前,川普總統在 Truth Social 上發文,指示每個聯邦機構「立即停止使用 Anthropic 的所有技術」。(Anthropic 隨後表示將在法院挑戰五角大廈,稱「供應鏈風險」的定性缺乏法律依據,且「從未公開應用於任何一家美國公司」。)
Max Tegmark 在過去近十年的時間裡一直警告,競相開發更強大 AI 系統的速度已經超過了世界治理這些系統的能力。這位瑞典裔美國物理學家、麻省理工學院(MIT)教授於 2014 年創立了生命未來研究所(Future of Life Institute)。2023 年,他因協助發起一封公開信而聞名——該信最終獲得包括 Elon Musk 在內的 3.3 萬多人簽署——呼籲暫停開發先進 AI。
他對 Anthropic 危機的看法毫不留情:這家公司與其競爭對手一樣,親手種下了今日困境的種子。Tegmark 的論點並非始於五角大廈,而是始於多年前的一個決定——一個整個行業共同做出的選擇:抵制具有約束力的監管。Anthropic、OpenAI、Google DeepMind 等公司長期以來一直承諾會負責任地進行自我管理。本週早些時候,Anthropic 甚至放棄了其安全承諾的核心原則——即承諾在確信不會造成傷害之前,不會發布日益強大的 AI 系統。
Tegmark 表示,現在在缺乏規則的情況下,沒有什麼能保護這些參與者。以下是訪談內容,經編輯以求精簡清晰。您可以在下週 TechCrunch 的 StrictlyVC Download 播客中收聽完整對話。
當你剛看到關於 Anthropic 的這則新聞時,你的第一反應是什麼?
通往地獄的道路是由善意鋪成的。回想十年前,人們對我們將如何利用人工智慧治癒癌症、促進美國繁榮並使美國強大感到如此興奮,這真的很有趣。而現在,美國政府卻對這家公司感到憤怒,因為它不希望 AI 被用於對美國人進行國內大規模監控,也不希望擁有可以在沒有任何人類輸入的情況下自主決定殺死誰的殺人機器人。
Anthropic 將其整個身份建立在「安全第一」的 AI 公司之上,但它卻與國防和情報機構合作(至少可以追溯到 2024 年)。你認為這有矛盾嗎?
這確實很矛盾。如果我可以給出一個稍微憤世嫉俗的看法——是的,Anthropic 非常擅長將自己行銷為一切以安全為重。但如果你看事實而非聲明,你會發現 Anthropic、OpenAI、Google DeepMind 和 xAI 都談論了很多他們如何關心安全。但他們中沒有一個像我們在其他行業那樣,站出來支持具有約束力的安全監管。而這四家公司現在都打破了自己的承諾。首先是 Google——那個響亮的口號「不作惡」(Don’t be evil),後來他們放棄了。接著他們又放棄了另一項更長期的承諾,基本上是承諾不利用 AI 造成傷害。他們放棄這一點是為了向監控和武器領域銷售 AI。OpenAI 剛剛從其使命宣言中刪除了「安全」一詞。xAI 解散了整個安全團隊。而現在,Anthropic 在本週早些時候放棄了其最重要的安全承諾——即承諾在確定不會造成傷害之前不發布強大的 AI 系統。
那些做出如此顯著安全承諾的公司,是如何陷入這種境地的?
所有這些公司,尤其是 OpenAI 和 Google DeepMind,但在某種程度上也包括 Anthropic,一直持續遊說反對 AI 監管,說:「相信我們就好,我們會自我監管。」他們遊說成功了。所以現在美國對 AI 系統的監管比對三明治還少。你看,如果你想開一家三明治店,衛生稽查員在廚房發現 15 隻老鼠,在他讓你修好之前,他不會讓你賣任何三明治。但如果你說:「別擔心,我不賣三明治,我要賣給 11 歲小孩 AI 女友,而且這些產品過去曾與自殺事件有關,然後我要發布一種叫做『超級人工智慧』的東西,它可能會推翻美國政府,但我對我的產品感覺很好」——稽查員只能說:「好吧,去吧,只要別賣三明治就行。」
食品安全有監管,而 AI 沒有監管。我覺得所有這些公司都難辭其咎。因為如果他們把當初許下的那些關於如何安全、如何循規蹈矩的承諾,集合起來去找政府說:「請把我們的自願承諾轉化為美國法律,約束甚至我們那些最馬虎的競爭對手」——那麼現在發生的就會是另一番景象。我們現在處於完全的監管真空。我們知道當企業完全不受約束時會發生什麼:會出現反應停(thalidomide)悲劇、菸草公司向兒童推銷香菸、石棉導致肺癌。所以,諷刺的是,他們自己抵制制定法律來規定 AI 哪些能做、哪些不能做,現在這股力量反過來反噬了他們。
現在沒有法律禁止製造 AI 來殺害美國人,所以政府可以突然提出這種要求。如果這些公司早點站出來說「我們想要這項法律」,他們就不會陷入這種困境。他們真的是搬起石頭砸自己的腳。
這些公司的反駁論點總是「與中國的競爭」——如果美國公司不這樣做,北京就會這樣做。這個論點成立嗎?
讓我們來分析一下。AI 公司遊說者最常見的說法——他們現在的資金和人數比化石燃料行業、製藥行業和軍工複合體的遊說者加起來還要多——就是每當有人提出任何形式的監管時,他們就會說:「但是中國怎麼辦。」所以讓我們看看中國。中國正在全面禁止 AI 女友。不僅僅是年齡限制——他們正在考慮禁止所有擬人化的 AI。為什麼?不是因為他們想討好美國,而是因為他們覺得這正在毀掉中國青年,讓中國變得虛弱。顯然,這也在讓美國青年變得虛弱。
當人們說我們必須競相建立超級人工智慧以便贏過中國時——而我們實際上並不知道如何控制超級人工智慧,以至於預設的結果是人類失去對地球的控制權,交給外星機器——猜猜怎麼著?中國共產黨非常喜歡「控制」。任何神智清醒的人會認為習近平會容忍某家中國 AI 公司製造出能推翻中國政府的東西嗎?絕不可能。如果美國政府被第一家製造出超級人工智慧的美國公司發動政變推翻,這對美國政府顯然也極其不利。這是一個國家安全威脅。
這是一個引人入勝的框架——將超級人工智慧視為國家安全威脅,而非資產。你認為這種觀點在華盛頓有得到支持嗎?
我認為,如果國家安全界的人聽到 Dario Amodei 描述他的願景——他曾發表過一次著名的演講,說我們很快就會在數據中心擁有一個「天才之國」——他們可能會開始思考:等等,Dario 剛才用了「國家」這個詞嗎?也許我應該把數據中心裡的那個天才之國列入我正在監視的威脅名單中,因為這聽起來對美國政府構成了威脅。我認為很快就會有足夠多的美國國家安全界人士意識到,不可控的超級人工智慧是威脅,而非工具。這完全類比於冷戰。當時存在一場針對蘇聯的霸權競爭——經濟和軍事上的。我們美國人贏得了那場競爭,而從未參與第二場競賽,即看誰能在另一個超級大國身上製造最多的核彈坑。人們意識到那只是自殺。沒人會贏。同樣的邏輯也適用於此。
這對更廣泛的 AI 發展速度意味著什麼?你認為我們離你描述的系統還有多近?
六年前,幾乎我認識的每一位 AI 專家都預測,我們還需要幾十年的時間才能擁有掌握人類水平語言和知識的 AI——可能是 2040 年,也可能是 2050 年。他們都錯了,因為我們現在已經擁有了。我們看到 AI 在某些領域的進步非常迅速,從高中水平到大學水平,再到博士水平,甚至大學教授水平。去年,AI 在國際數學奧林匹亞競賽中獲得了金牌,這幾乎是人類任務中難度最高的。幾個月前,我與 Yoshua Bengio、Dan Hendrycks 和其他頂尖 AI 研究人員共同撰寫了一篇論文,對 AGI 給出了嚴謹的定義。根據這個定義,GPT-4 已經完成了 27% 的進程。GPT-5 則完成了 57%。所以我們還沒到那一步,但從 27% 到 57% 的速度如此之快,意味著可能不需要太長時間。
昨天我在 MIT 給學生上課時告訴他們,即使還需要四年,這也意味著當他們畢業時,可能再也找不到任何工作了。現在開始為此做準備絕對不算太早。
Anthropic 現在被列入了黑名單。我很想看看接下來會發生什麼——其他 AI 巨頭會支持他們並說「我們也不會這樣做」嗎?還是像 xAI 這樣的人會舉手說「Anthropic 不要那份合約,我們要」?[編者註:訪談結束幾小時後,OpenAI 宣布了與五角大廈的合作協議。]
昨晚,Sam Altman 站出來說他支持 Anthropic,並擁有相同的紅線。我欽佩他有勇氣說出這番話。截至我們開始這次訪談時,Google 什麼也沒說。如果他們保持沉默,我認為這對他們公司來說是非常尷尬的,他們的許多員工也會有同感。我們也還沒聽到 xAI 的任何消息。所以這將會很有趣。基本上,這是一個每個人都必須展現其真實本色的時刻。
這件事有沒有可能最終會有一個好的結果?
有的,這就是為什麼我以一種奇怪的方式感到樂觀。這裡有一個顯而易見的替代方案。如果我們開始像對待其他任何公司一樣對待 AI 公司——取消企業豁免權——他們顯然必須在發布如此強大的產品之前進行類似臨床試驗的工作,並向獨立專家證明他們知道如何控制它。然後我們就能迎來一個黃金時代,享受 AI 帶來的所有好處,而沒有生存焦慮。這不是我們目前正在走的道路。但它本可以是。
主題
總編輯兼總經理
正在積極擴張?籌資?計劃下一次發布?2026 年 TechCrunch 創始人峰會提供戰術手冊,並讓您直接接觸 1,000 多名正在建設、支持和成交的創始人與投資者。3 月 13 日前註冊最高可省 300 美元。
Jack Dorsey 剛剛將 Block 的員工規模裁減了一半——他說你的公司就是下一個
一名會計師因押注反對 DOGE 而在 Kalshi 上贏得大獎
是時候放棄插電式混合動力車了
一名 Meta AI 安全研究員表示,一個 OpenClaw 代理程式在她的收件匣中失控運作
美國人正在破壞 Flock 監控攝像頭
Bill Gurley 表示,目前對你職業生涯最糟糕的事情就是追求穩妥
那個我不想歸還的 9,000 磅怪物