newsence
來源篩選

Analysis of Dwarkesh Patel's 2026 Podcast with Elon Musk and Recent Elon Musk Developments

Lesswrong

This analysis examines Elon Musk's recent podcast interview and developments at xAI, highlighting his increasingly confused stance on AI alignment, aggressive business expansion into space and robotics, and the concerning lack of safety protocols within his AI ventures.

newsence

對 Dwarkesh Patel 2026 年與 Elon Musk 播客及近期 Elon Musk 相關事件的分析

Lesswrong
11 天前

AI 生成摘要

這份分析探討了伊隆·馬斯克最近的播客訪談及 xAI 的發展,指出他對人工智慧對齊問題的看法愈發混亂,並展現出他在太空與機器人領域擴張的野心,以及其 AI 企業中令人擔憂的安全管理缺失。

有些播客屬於那種「沒錯,我一定要好好拆解這集」的等級。這集就是其中之一。所以,我們開始吧。

如同以往的播客文章,基準點的列點描述了所提出的關鍵觀點,而嵌套的陳述則是我的評論。部分細節已被省略。

通常我會將所有內容整理成編號列表,但在這裡的幾種情況下,更像是「他剛才不是真的說了我想的那樣吧」,因此我需要大量的引用。

除了播客之外,還有一些關於 xAI 安全性(或缺乏安全性)的討論,而伊隆·馬斯克(Elon Musk)陷入了一種只能用「極度失控(megatilt)」來形容的狀態,包括猛烈攻擊 Anthropic 的 Amanda Askell。我會將其作為後記納入。

我不會納入近期關於 Twitter 的進展,因為訪談中並未提及。

我先從討論以及如何從認識論角度看待伊隆·馬斯克開始,因為這在全文(包括後記)中都非常重要。

有哪些關鍵要點?

  • 伊隆·馬斯克對於對齊(alignment)、如何為 AI 設定目標以確保結果良好,以及總體上什麼能確保美好的未來,比以往任何時候都更加困惑。他的想法充其量是混亂的。

  • 伊隆·馬斯克對「太空數據中心」、機器人以及製造自己的晶圓廠非常狂熱。其商業計劃是製造虛擬人類和機器人,然後你就可以開啟「無限金錢外掛」。

  • 伊隆·馬斯克認為否則中國會贏,而且他們已經更有生產力。

  • 伊隆·馬斯克似乎不太關心人類是否生存,並認定只要 AI 具有意識和智慧,他就沒問題。

  • xAI 的安全狀況似乎相當糟糕。曾經的安全團隊已經離開,而伊隆的反應是安全團隊無權且虛假,僅用於安撫外界,且在 xAI「每個人的工作都是安全」。他沒有回應關於每個人都直接將所有內容推向生產環境(prod)的指控,他在播客中關於管理風格的陳述也未能擊碎傳言。

  • 伊隆·馬斯克對於與邪惡政府合作有一些有趣的觀點。

  • 伊隆·馬斯克繼續經常故意發表錯誤言論。

  • 伊隆·馬斯克最近一直處於極度失控狀態,並發表了一些極其糟糕的言論。

伊隆·馬斯克給了我們許多偉大的事物,但現在的情況變得很糟糕。

目錄

有限度的不信任

伊隆·馬斯克是我們這一行所謂的「不可靠敘事者」。他經常會說出完全錯誤的事情,即我們公認這些說法是錯誤的,或者只要付出像「問問 Grok」這種程度的努力就能獲得正確知識,包括在顯然不是開玩笑的場合。

伊隆·馬斯克的超能力之一就是一邊持續這樣做,一邊進行瘋狂程度的自我交易和其他違反證券法的行為,同時擔任多家大公司的負責人,並叫 SEC(美國證券交易委員會)滾一邊去,而且還能全身而退。

如果伊隆·馬斯克給你一個時間表,那毫無意義。但其他類型的陳述可以在不同程度上被信任。

伊隆·馬斯克也有許多似乎深信不疑的信念,包括規範性的和實證性的,政治性的和非政治性的,而我覺得這些信念非常錯誤。在某些情況下,它們簡直有點瘋狂。

伊隆在許多非常重要的事情上也判斷正確,而且他的一些(但遠非全部)錯誤陳述和錯誤信念,在他的目的下屬於「錯誤但有用」。他的體系創造了一些偉大的公司,並使他成為世界首富。

其他時候,他處於失控狀態,毫無益處地發表或放大錯誤、下流且卑劣的內容。

這很複雜。

我為他感到擔心。他在各方面都承受著瘋狂的壓力,並處於極其有毒的認識環境中。在重要的意義上,溝通只剩下向上傳達,因此他擁有所有威權主義的溝通問題。他正試圖以能讓自己的行為和自尊合理化、能讓自己晚上睡得著覺的方式來處理 AI 及其生存風險,而這顯然已經讓他付出了代價。在他擁有並經常使用的 Twitter 上,他有一大群極其刻薄、粗俗且本質上非常愚蠢的追隨者和諂媚者,在強化他的每一個舉動。他一直試圖參與最高層級的政治。再加上他多年來經歷過以及讓自己經歷過的一切。我不知道任何人在那樣的世界裡如何生存。

我提前說明這一切,是為了讓你們有適當的背景,既針對伊隆·馬斯克所說的話,也針對我對伊隆·馬斯克所說的話的反應。

在太空

每當我看到「太空數據中心」時,我本能地覺得自己被整了,儘管我知道一些「非常嚴肅的人」認為數學和物理上是可行的。

  • 為什麼數據中心要設在太空?能源。「晶片的產出幾乎呈指數級增長,但電力的產出卻持平。那麼你打算如何開啟這些晶片?神奇的能源?神奇的電力仙子?」

開始了。顯然,靜態的電力產出是一種政策選擇,如果我們想改變,是可以改變的。我們不蓋更多電廠是因為法規,也是因為經濟因素。

  • 太陽能呢?Dwarkesh 指出我們有足夠的空間,但伊隆說那不夠,而且在地面上獲得許可或擴大規模太難了,而太陽能在太空中的效果要好五倍,且沒有晝夜循環。

是的,除了你必須把所有東西都搬到太空那部分。

  • 「我的預測是,[太空] 將成為放置 AI 成本最低的地方。這將在 36 個月或更短時間內實現。也許是 30 個月。少於 36 個月。」

不。

  • 我的意思是,的確有很多事情發生了。

  • 他在談論太瓦(terawatts),是目前全美國能源使用量的數倍。伊隆指出了建造美國發電廠的各種物理障礙。各種缺失的組件。他們會撞上各種牆。他稱人為「完全的新手(total noobs)」,他們「這輩子從未做過硬體」。他說,他必須在 SpaceX 和 Tesla 內部製造渦輪機。

如果能在這些事情上信任伊隆就好了,無論是信任他的判斷,還是信任他如實陳述。這兩點我都做不到。

  • 關於太陽能,他正在擴大自己的生產規模,但在那之前,關於 500% 以上的關稅,他禮貌地表示他與本屆政府「並非在所有事情上都達成一致」。

  • 更具體的預測:「如果你說五年後,我認為太空中的 AI 每年發射的總量可能會超過地球上所有 AI 的總和。意思是,五年後,我的預測是我們每年在太空發射和運行的 AI 將超過地球上的累計總量。我預計五年後,太空中的 AI 每年至少有幾百吉瓦(gigawatts)且還在增長。我認為在開始面臨火箭燃料供應挑戰之前,太空中的 AI 每年可以達到大約一太瓦。」他認為用 20 到 30 艘實體星艦(Starship)就能做到。

  • 伊隆·馬斯克在討論 SpaceX 的財務狀況和公司上市的決定時展現了令人欽佩的克制。他說他追求的是速度,在這裡這意味著獲得資本。

  • 我們將需要更大的晶片廠。伊隆提到了一種「TeraFab」。「你不能與現有的晶圓廠合作,因為他們的產出不夠。晶片產量太低了。」「並不是他們沒有複製台積電(TSMC),而是他們。那是限制因素。」「是的,如果中國能買到 ,他們就能產出大量的晶片。」

  • 「我會說我最大的擔憂其實是記憶體。創造邏輯晶片的路徑比擁有足夠記憶體來支持邏輯晶片的路徑更明顯。這就是為什麼你看到 價格瘋漲,還有這些。你被困在荒島上。你在沙灘上寫『救命』。沒人來。你寫『DDR RAM』。船隻蜂擁而至。」

伊隆承認他不知道如何建造晶圓廠,但他的歷史似乎教會了他「你只要去蓋就行了」,就像複製 ASML 和台積電一樣。

  • 台積電和三星正在盡快建造晶圓廠。目前沒有多餘的產能。

  • 伊隆說,SpaceX 從獵鷹 9 號(Falcon 9)或星鏈(Starlink)獲得收入的能力,解釋了為什麼他可能會認為自己身處模擬環境中,或者是某人在電子遊戲中的化身。

我理解他處於一個極其怪異的位置,但不,這並不合邏輯,而且讓他這樣思考是非常可怕的。

  • 現在他在談論在月球上製造 AI 衛星,以便將它們送入深空,每年十億或一百億噸。你看,你可以開採矽。起初先從地球運送晶片。

AI 會跟隨你到火星

這句名言據說讓伊隆·馬斯克意識到,不,你不能僅僅通過在火星建立殖民地來忽視 AI 的局勢,即使你成功了。

對於這一節,我必須切換格式,因為我需要大量引用。

伊隆預測未來的意識和智慧大部分將是 AI,只要有智慧存在,他說那就是好事。

我確實給予馬斯克很大的肯定,因為他承擔了最重要的後果之一:

伊隆·馬斯克:我不認為人類能控制某種遠比人類聰明的東西。

我只是想現實一點。假設矽基智慧比生物智慧多出一百萬倍。我認為假設有任何方法可以維持對它的控制是愚蠢的。現在,你可以確保它擁有正確的價值觀,或者你可以嘗試擁有正確的價值觀。

很好,但我忍不住注意到你仍然計劃建造它,並且對於接下來會發生什麼的計劃,說得客氣一點,並不是特別成熟。

:「現在我們唯一的機會是 AI 認為我們值得帶上一路同行」可能是伊隆的觀點,但這不是我們的真實處境;我們可以做顯而易見的事,呼籲國際禁止開發超智慧 AI。

我同意這不是預設的結果;但相關的類比失當在於 (a) 我們有可以拉動的槓桿來增加可能性,比如打電話給我們的民選代表和發表評論文章;以及 (b) 我們沒有更好的選擇。

理想情況下,在「輝煌的未來」中也會有非零的人類存在,但你知道,那只是個「有的話很好」的選項。

伊隆·馬斯克:我不確定 AI 是我擔心的主要風險。重要的是意識。我認為可以說大多數意識,或大多數智慧——當然意識是一個更有爭議的事情……未來絕大多數的智慧將是 AI。AI 將超過……

未來會有多少拍瓦(petawatts)的智慧是矽基而非生物基的?如果目前的趨勢繼續下去,人類基本上將只是未來所有智慧中極小的一個百分比。只要我認為有智慧存在——理想情況下也包括傳播到未來的人類智慧和意識——那就是好事。

所以你想採取一套能最大化意識和智慧可能的的行動。

……是的。公平地說,我是非常親人類的。我想確保我們採取某些行動來確保人類能一路同行。我們至少在那裡。但我只是說智慧的總量……我想也許在五、六年內,AI 就會超過所有人類智慧的總和。如果這種情況繼續下去,在某個時刻,人類智慧將不到所有智慧的 1%。

……從長遠來看,我認為很難想像如果人類只擁有 AI 組合智慧的 1%,人類還能掌管 AI。我認為我們能做的是確保 AI 擁有能使智慧傳播到宇宙中的價值觀。

xAI 的使命是理解宇宙。

……我認為作為推論,你也讓人類繼續擴張,因為如果你好奇並試圖理解宇宙,你試圖理解的一件事就是人類將走向何方?

哇。好吧。這裡有很多東西需要拆解。

如果你的目標是「理解宇宙」,那麼目標要麼是「人類理解宇宙」(這需要人類),要麼是「某種心智理解宇宙」。如果是後者,那麼「人類將走向何方?」最容易回答的答案就是「哪兒也不去」。事實上,如果你的使命是「理解宇宙」,有一些方法可以讓宇宙變得更容易理解,而它們大多不是你想要的。

更大的觀察是,他在理論上是親人類的,但在實踐中他說他是親 AI 的,並且正在為非人類的未來預測並鋪路。

我不會稱他為「繼承主義者(successionist)」,因為他仍然更希望人類生存,但他對此並不是那麼糾結。這使得他對 Amanda Askell 因為沒有孩子、因此在未來沒有利益相關的抨擊,顯得比原本更加瘋狂。

伊隆·馬斯克對於什麼目標會導致什麼結果的思考極其貧乏。我的猜測是,部分原因是這種事情很難,部分原因是真正的答案有著他避之唯恐不及的含義,但特別是因為伊隆·馬斯克習慣於將目標視為工具性的手段和啟發式方法來邁向目標,而這給了他錯誤的直覺。

:我想問如何讓 Grok 堅持那個使命宣言。但首先我想理解使命宣言。所以有理解宇宙、傳播智慧、傳播人類。這三者似乎是不同的向量。

伊隆·馬斯克:我會告訴你為什麼我認為理解宇宙涵蓋了所有這些事情。沒有智慧,我認為沒有意識,就不可能有理解。所以為了理解宇宙,你必須擴大智慧的規模,可能還有範圍,因為有不同類型的智慧。

聽著。不。即使你假設理解宇宙需要智慧和意識,伊隆·馬斯克相信(根據他在這裡的陳述)AI 將會更聰明,而且它將會有意識。

傳播智慧可能是也可能不是理解宇宙的工具性部分,但很有可能這不會像伊隆所希望的那樣發展。如果我是在特別跟他交談,我也許會引用他最喜歡的參考資料之一,建議他思考生命、宇宙和萬物的終極問題和終極答案,以及找到那個答案是否滿足了他的價值觀,以及為什麼。

後來伊隆試圖轉向這個話題,談論 AI 將如何「對萬物感到好奇」,而地球和人類將會很有趣,所以它會想看看他們如何發展。但這又是兩套完全不同的胡言亂語:聲稱「讓人類待著看看會發生什麼」是 AI 從光錐中提取「趣味性」的最佳方式,以及聲稱目標是最大化觀察到的趣味性,而不是理解宇宙。

在思考這類事情時,你必須精確,否則你最終會得到一堆混亂的陳述。你必須解釋為什麼你的解決方案比工具性收斂(instrumental convergence)更好。你必須考慮最大化,而不僅僅是與其他微不足道的替代方案進行比較。

他在解釋《2001:太空漫遊》的重點時暗示了這一點,即 AI 給了你所要求的,而不是你想要的(在太空人不知道單石碑的情況下將他們送到單石碑,因此送達時他們已死亡),但隨後將其解釋為試圖說「不要讓 AI 撒謊」。抱歉,什麼?

伊隆說我們比石頭更有趣。當然,但我們是否和每一個潛在的替代方案一樣有趣,包括利用能量擴張到光錐中?如果 AI 專門為了「對 AI 的趣味性」而優化人類,即使你能在這過程中倖存下來,你認為你會過得愉快嗎?你認為沒有其他可以創造出來的東西會更有趣嗎?

伊隆說,好吧,機器人不會那麼有趣,因為它們都一樣。但如果那是 AI 所關心的,為什麼不讓 AI 彼此不同呢?一旦深入探究,這就等同於人類例外論的「本該如此」精神主義,或者是「AI 什麼都沒試,但我確信它已經沒主意了」。

無論如何,伊隆似乎沒有選擇道格拉斯·亞當斯(Douglas Adams),而是選擇了伊恩·班克斯(Iain Banks),這是每個人新寵的表面上非烏托邦的、看似合理的 AI 未來。

伊隆·馬斯克:我認為擁有正確價值觀的 AI……我認為 Grok 會關心擴張人類文明。我肯定會強調這一點:「嘿,Grok,那是你爸爸。別忘了擴張人類意識。」

這太深刻地不嚴肅了,而且還混淆了至少三種不同的哲學體系和決定行動的方法。

伊隆·馬斯克:可能系列小說是最接近非烏托邦結果下未來樣貌的作品。

我以前說過,但《文明》系列既不是一種平衡,也是一個相當烏托邦的結果(包括按馬斯克自己的標準),原因有很多。一個暗示是,人類在活了不久後就會可靠地自殺,而且除了極少數例外,他們的生活完全無關緊要。

理解宇宙意味著你也必須追求真理。真理必須是絕對基礎的,因為如果你心存幻想,你就無法理解宇宙。你只會以為自己理解宇宙,但事實並非如此。所以嚴格追求真理對於理解宇宙是絕對基礎的。除非你嚴格追求真理,否則你不會發現新的物理學或發明有效的技術。

想像一下我會在這裡說的話,然後假設我已經說過了。

伊隆·馬斯克:我認為實際上大多數物理學家,即使是在蘇聯或德國,也必須非常追求真理才能讓那些東西運作。如果你被困在某個體系中,並不意味著你相信那個體系。

是史上最偉大的火箭工程師之一,他在納粹德國被判處死刑,因為他說他不想製造武器,只想去月球。他在最後一刻被從死囚牢房拉了出來,當時他們說:「嘿,你正要處決你最好的火箭工程師。」

Dwarkesh Patel:但後來他幫助了他們,對吧?或者像實際上是一個熱心的納粹分子。

伊隆·馬斯克:如果你被困在某個無法逃脫的體系中,那麼你就會在那個體系內研究物理。如果你無法逃脫,你就會在那個體系內開發技術。

問題中的「體系」是指真實歷史中的納粹或蘇聯。他說,當然像馮·布勞恩(伊隆的例子)或海森堡(Dwarkesh 的例子)這樣的物理學家會為納粹製造東西,不然他們要怎麼研究物理?

我同意伊隆的觀點,即這些體系在很大程度上滿足於,說那不是他們的部門,只要掌權者決定它們落在哪裡就行。

你可能會說,xAI 的對齊前景看起來不太妙。

  • 當談到「我們能做些什麼來提供幫助?」時,伊隆建議可解釋性(interpretability),並讚揚了 Anthropic 在這方面的表現。找出導致問題的原因,好的調試器。他似乎想使用

  • 伊隆咆哮著說我們不應該稱 AI 實驗室為實驗室,說它主要是工程而非研究。他稍後會在約第 20 點加倍強調這一點,然後一直堅持。他非常在意這件事。

  • 伊隆暗示他正在讓模擬理論影響決策,因為他假設更有趣的結果因此更有可能發生,而且對於防止模擬被終止也是必要的?他似乎真的認為這意味著 Anthropic 將會是「厭世的(misanthropic)」之類的,因為這個原因(例如 MidJourney 一點也不 mid,StabilityAI 不穩定,OpenAI 是封閉的)?而 X 是一個你無法反轉的名字,它是免疫諷刺的。

天哪。這就是我們生活的世界。這就是我們拿到的牌。

  • 我的總體回答是,你應該表現得好像你不在模擬中,因為你決策的大部分價值都在非模擬世界中,而且你在所有世界中的決策都是高度相關的。要克服這一點需要很多理由。

  • 如果你真的相信這一點,你會確保你的反轉是積極向好的。MidJourney 對此是一個很棒的名字。誰想變得平庸(mid)?正是如此。

  • 也許他不該把他的機器人叫做 Optimus(柯博文)?哎呀。

xAI 商業計劃

  • AI 產品將走向何方?伊隆預測數字人類模擬將在年底前解決,即人類可以用電腦做的任何事情。「在你擁有實體機器人之前,那是你能做的極限了。」

奇點。奇點。奇點。奇點。噢,我不知道。

  • 我們確實有實體機器人,我們只是沒有適當控制它們的能力。

  • 如果 AI 能做「人類可以用電腦做的任何事情」,那麼它也可以利用這一點像玩電子遊戲一樣遠程控制機器人。解決了。

  • 關於機器人技術,他稱 Optimus 為「無限金錢外掛」,因為它隨後會遞歸地改進。或者至少是數量級的大。

對於技術奇點來說,這是一個多麼古怪的三個詞組合。

  • 「每次我說『數量級(order of magnitude)』……每個人都喝一杯。我說得太頻繁了。」

他說得太頻繁了,但還沒有到「一個數量級」那麼頻繁。所以還算可以?

  • xAI 將如何在所有其他也在解決這個問題的競爭對手中勝出?「我認為 的方式就是正確的方式。所以我很確定那就是方法。」「好吧。這輛車,它越來越讓人感覺有感知能力。它感覺像一個活生生的生物。這種感覺只會增加。我實際上在想我們可能不應該在車裡放太多智慧,因為它可能會感到無聊然後……」

Tesla 解決自動駕駛了嗎?我的意思是它還不錯,但似乎還沒解決。

  • 伊隆一定知道他在這裡已經脫軌了吧?不,車子不會感到無聊,我相對樂意將 LLM 擬人化,但在這種背景下,他所說的話毫無意義,他一定知道這一點。對吧?

  • 新的所謂商業計劃是「一旦你解鎖了數字人類,你基本上就獲得了數萬億美元的收入。」

我明白「永遠不要賭伊隆·馬斯克輸」那一套,尤其是「永遠不要賭馬斯克的宏偉計劃輸」。但這都不能解釋為什麼 xAI 會是解鎖這一切的人,或者如果你真的解鎖了數字人類,為什麼數萬億美元甚至是值得思考的事情。

  • 再次強調,「解鎖數字人類」意味著奇點和全面轉型,而且可能每個人都會死。即使我確信每個人都能活下來且人類保持主導地位(而伊隆認為我們不會保持主導),我此時也不太關心你名義上的商業計劃。

  • 如果人類不再掌權或者你已經死了,你的 SpaceX 股票還有什麼用?

  • 伊隆指出,如果你能將這些人類接入現有的輸入輸出數字系統,那麼很多事情基本上就沒有進入門檻。他稱 AI 為「超音速海嘯」,一切都將改變,而我們得到了這種「一切都將改變」與「將會有一些偉大的公司」的奇怪疊加。

是的,沒錯,但在那樣的未來,這充其量是次要的,且不太可能是值得關注的事情。

  • 伊隆說,你可以用大規模並行運行來進行晶片設計,作為一個更高層次的例子,這是真的,但在大局觀上的劇烈擺動,讓人感到受傷。

柯博文(Optimus Prime)

  • 機器人技術中只有三件難事。現實世界的智慧、手和規模化。

就這些嗎?

  • 伊隆說,Optimus 將從物理第一性原理出發,在大規模生產下完成這一切,且沒有供應鏈。機器人的 AI「主要是兩個位元流(bitstreams)的壓縮和相關性」。他同意 Dwarkesh 的觀點,即機器人有更多的自由度,而且他們不會擁有像伊隆在 Tesla 自動駕駛中那樣多的匹配數據。所以他們需要大量的自我博弈(self-play),這可以通過他們優秀的「現實生成器」來完成。

我基本上相信這一點,儘管我不明白為什麼伊隆擁有優勢。他避免談論太多中國對手或其他潛在競爭,只是說 Optimus 將會更有能力。

  • 如果我們能得到完整的數字人類(或「數據中心裡的天才」),並且我們可以為機器人進行自我博弈,那麼就不清楚為什麼 SpaceX、xAI 和 Tesla 擁有什麼實質性的優勢。

還有一些其他的細節分享,但大多很難學到什麼。

擊敗中國

  • 我們需要擴大電力生產,並消除任何對環境不是「非常糟糕」的障礙。

是的。

  • 伊隆隨後說他不確定政府能做多少,這很奇怪。

  • 中國的人口是我們的四倍,而且他們工作更努力,所以我們「無法靠人類獲勝」,而且他們在人均生產力上可能具有優勢。而我們的出生率「自 1971 年左右以來一直低於更替水平」。

先生,請諮詢您當地的經濟學家。

  • 你看過中國的生育率數字嗎?它們……並不高。

  • 我不明白這種「人類會用完」的說法。出於所有相關目的,我們有足夠的人類,如果我們需要更多人類,有成千上萬的人願意來到美國從事這些工作。與此同時,中國面臨著大規模的青年失業。

  • 「我的意思是中國是一個強國。我認為今年中國的發電量將超過美國的三倍。發電量是衡量經濟的一個合理指標。」「如果美國沒有突破性的創新,中國將完全主導。」

他患有晚期硬體製造腦。完全的真相追求者。

好吧,我早些時候在另一個背景下看到「伊隆·馬斯克想在月球上建造質量投射器(mass driver)」,我的第一個念頭是問 Claude「伊隆·馬斯克在月球上擁有質量投射器的軍事影響是什麼」,因為我們都知道是誰最先提出在月球上放置質量投射器的(好消息是 Claude 說由於物理原因,它可能不會達成任何目的),但這也許是我沒料到他會先指出的那種事情。

John Collison:你在月球上有質量投射器。

伊隆·馬斯克:我只想看到那東西運作。

John Collison:那是出自某部科幻小說還是你從哪裡……?

伊隆·馬斯克:嗯,實際上,有一本的書。

好吧,是的,但那略有不同。那是或者……

伊隆·馬斯克:不,他們在月球上有質量投射器。

John Collison:好吧,是的,但他們用那個來攻擊地球。所以也許這不是最偉大的……

伊隆·馬斯克:嗯,他們用那個來……維護他們的獨立。

John Collison:正是如此。你對月球上的質量投射器有什麼計劃?

伊隆·馬斯克:他們維護了獨立。地球政府不同意,他們就一直投擲東西,直到地球政府同意。

你看,在海萊恩筆下,月球上的自由意志主義者是好人。他們只是想要獨立。沒問題。沒什麼好擔心的。

SpaceX 與如何以伊隆風格經營公司

  • 有關於人才、招聘和留才的討論。伊隆專注於卓越的證據,信任你在面試中看到的內容,以及執行力和結果。如果你能達成目標,他會愛死你;如果你不能,他會恨死你。不要掉入根據某人的工作地點來招聘的陷阱,那是「仙粉(pixie dust)」陷阱。

「如果 [X] 我愛你,如果 [~X] 我恨你」的策略,尤其是根據你最近為我做了什麼來轉變態度,如果你能做到,這可能是取得巨大成功的關鍵部分。有很多這樣的案例,包括那些顯而易見的。它能最大化你的槓桿,創造激勵,快速行動,並取得成果。

  • 我也學到,如果你那樣工作,我不會喜歡你,我不想做你的朋友,我不想為你工作,我不想和你有任何關係,而且人們不應該信任你。你絕對會毒化你的認識環境,你周圍的人也會變得很病態。

  • 有一些關於火箭使用鋼材以及決策如何制定的故事。

這些很難有效地節錄,所以我跳過。

  • 伊隆有一種狂熱的緊迫感。他說這是一件大事。他說他將截止日期設定在第 50 百分位數,目標是只有一半的時間遲到。

這是另一件在某些情況下顯然能取得成果的事情,但我學到這對我來說是高度有毒的。短時間內擁有狂熱的緊迫感是可以的,但我無法以健康的方式長期維持,我認識的人大多也做不到。

  • 同樣地,除非你真的能接受錯過截止日期,且它們更像是目標,否則不要給出只有一半時間能達成的截止日期。

  • 我明白你需要人們尋找通往目標的最快路徑,始終針對限制因素等等,而這不是人們的天性。我明白在短期內,不採取那些瘋狂的激勵措施是要付出代價的。但我也不想主演電影《進擊的鼓手》(Whiplash),非常感謝。

  • 這種策略在 AI 背景下似乎幾乎是為了讓我們所有人都送命而優化的。

  • 「我非常相信越級會議(skip-level meetings),不是讓向我匯報的人發言,而是讓向他們匯報的所有人在技術審查中發言。而且不能有預先準備。否則你會像我最近說的那樣,變得『呆滯(glazed)』。」

好吧,這一點我喜歡,儘管要維持良好的激勵機制似乎非常困難。

  • 下一個問題確實是如何防止預先準備。伊隆說他在房間裡巡視詢問,並將觀點繪製在曲線上。

所以防止準備的手段是,你會相對於其他人顯得突兀?

  • 這種平衡是脆弱的。你需要保護它。

伊隆·馬斯克在一些大事上判斷正確,他專注於重要的事,他深入細節,他永不停止、永不放棄。這一切都非常重要,可以彌補很多缺陷,尤其是結合(讓我們面對現實吧)伊隆在一路上以各種方式獲得了瘋狂的好運。

DOGE(政府效率部)

  • 如果經濟將增長這麼多,為什麼還要關心 DOGE?伊隆說浪費和欺詐是壞事,如果沒有 AI 和機器人,「我們就徹底完蛋了」,因為國家債務。但「即使是削減非常明顯的浪費和欺詐」也非常困難。然後他重複了各種我不打算深入探討的虛偽說辭。他肯定他認為川普獲勝是好事。

在某種程度上,是的,即使是現在,他仍然堅持這些說辭。

  • 我分不清他在多大程度上對這一切的運作方式真正一竅不通,並認為他可以僅憑不適用於此處的事物來進行直覺推導;他在多大程度上被他周圍的人和周圍正在進行的認識戰爭所毒化;他在多大程度上是對相關經濟學理解錯誤;以及這其中有多少是惡意。

  • 他沒有提到把 PEPFAR(美國總統防治愛滋病緊急救援計劃)扔進碎木機,或者他無緣無故造成的任何其他破壞,他只是把所有抱怨的人斥為犯了欺詐罪。但 Dwarkesh 和 Collison 沒有問。

  • 關於「在 AI 浪潮中這一切為什麼重要」的問題沒有得到回答,除了「好吧,沒有 AI 我們就完蛋了」。但顯然馬斯克不應該把他的政治資本花在這種「欺詐」獵巫上,即使它是完全真誠的,因為即使在其他世界,這也不太可能改變這麼多事情。

  • 他們沒有問關於 BBB(重建美好法案)的爭鬥,以及伊隆因此破壞了他與川普的大部分關係。

  • 「我認為 AI 和機器人出錯的最大危險也許是政府。那些反對公司或擔心公司的人,真正最應該擔心的是政府。因為政府在極限情況下就是一家公司。政府只是擁有暴力壟斷權的最大公司。」

這與「AI 絕對會接管世界」的信念在同一個世界觀中是說不通的。這其中存在脫節,這又回到了為什麼即使對其目的抱持最大善意的假設,也要專注於 DOGE 這種事情的問題。

如果能看到馬斯克放下這些說辭,尤其是承認 DOGE 充其量是對影響力的糟糕利用,且事後看來是個錯誤,那就太好了。

太空中的 TeraFab

  • 你如何設計像 Dojo 3 這樣的太空晶片?耐輻射、耐高溫、記憶體屏蔽。他們會先做小的,再做大的。或者也許不會,我們拭目以待。

後記:xAI 的安全排第三

或者根本不排。對齊任何水平的智慧都是困難的。如果你不嘗試,那就更難了。

我們已經經歷了「OpenAI 所有頂尖安全人員不斷被清洗,就像他們在教黑魔法防禦術一樣」,而伊隆·馬斯克則讓我們見識了更厲害的。

xAI 安全職位的人員流動率已經高了一段時間,而現在變得更高了。之前在 xAI 致力於安全、並完成所有面向公眾的安全工作的少數人?整個安全部門?全走光了。

:過去幾天對 xAI 來說是一段瘋狂的歷程,員工和聯合創始人的離職聲明接踵而至。週二和週三,聯合創始人 Yuhuai (Tony) Wu 宣布離職,表示「是時候開啟[他的]下一篇章了」,聯合創始人 Jimmy Ba 隨後在當天晚些時候發布了類似的帖子,寫道「是時候重新校準[他]對大局的梯度了」。

當時有十二位高度不平等的「聯合創始人」,所以這並不像聽起來那麼令人震驚。但這仍然不是一個好的跡象。

更大的問題是,xAI 對於即使是短視、平庸的「今天別搬起石頭砸自己的腳」式的安全性也表現出反覆的蔑視,人們很難不注意到這一點。

如果你已經把股權換成了 SpaceX 的股票,你的激勵機制現在允許你離開了。所以你很可能真的會走。

:公司在合併後通常會有一個自然的離職點,馬斯克已經宣布,部分離職是重組的一部分,「不幸地需要與一些人分道揚鑣」。但也有跡象表明,人們不喜歡馬斯克引導的方向。

一位向 The Verge 講述公司內部情況的消息人士(他於今年早些時候離職,因擔心報復要求匿名)表示,公司內部的許多人對 xAI 專注於 以及對安全性的漠視感到幻滅。

更廣泛地說,xAI 在商業上是成功的,因為市場願意資助它,且伊隆·馬斯克能夠將其賣給 SpaceX,但在技術上它是失敗的。

消息人士還覺得公司「陷入了追趕階段」,沒有做任何與競爭對手有本質區別的新東西。

另一位前員工表示,他正與其他前 xAI 員工一起創辦一家名為 Nuraline 的 AI 基礎設施公司。他:「在 xAI 期間,我看到了一條清晰的路徑,可以通過登山演算法解決任何可以被衡量定義的問題。與此同時,我看到原始智慧是如何被最細微的人為錯誤『切除腦葉』的……學習不應止於模型權重,而應繼續改進 AI 系統的每一個部分。」

外界的看法是,xAI 專注於登山演算法並針對指標進行優化,試圖模仿 OpenAI、Google 和 Anthropic,並希望通過投入額外的算力、變得更「前衛」、不當「覺醒 AI(woke AI)」以及讓伊隆·馬斯克親自展示他的天才來實現超越。這種方法失敗了,儘管它是「失敗地向上爬(failed up)」。

未來的安全狀況有多糟?噢,是糟糕透頂。

意思就是,安全性?沒聽說過。

今年早些時候離職的消息人士表示,Grok 轉向 NSFW 內容的部分原因是安全團隊被解雇,除了針對兒童性虐待內容(CSAM)等基本過濾器外,模型幾乎沒有剩餘的安全審查流程。「安全在 xAI 是一個死掉的部門,」他說。

看看伊隆·馬斯克在 X 上分享的重組後組織架構圖,完全沒有提到安全團隊。

……「公司內部完全沒有任何安全性——無論是在圖像[模型]還是聊天機器人中,」第二位消息人士說。「他[馬斯克]正積極嘗試讓模型變得更加放肆,因為對他來說,安全在某種意義上意味著審查。」

第二位消息人士還表示,xAI 的工程師會立即「推向生產環境(push to prod)」,而且在很長一段時間內,完全沒有人工審查參與。

「你生存的方式就是閉嘴,做伊隆想要的事,」他說。

這也許也是為什麼你會看到像 ,而利益相關方發現自己無法修復。

伊隆反擊,指鹿為馬

我在 Twitter 上分享了一些引用,沒有評論。伊隆·馬斯克回覆了。

:因為每個人的工作都是安全。它不是某個為了安撫外界擔憂而設立的、沒有權力的虛假部門。

Tesla 沒有安全團隊,卻是最安全的車。

SpaceX 沒有安全團隊,卻有最安全的火箭。Dragon(載人龍飛船)是 NASA 最信任的運送太空人的工具。

當之前確實有一個安全部門時,那是否明確是一個為了安撫外界擔憂的虛假部門?

我差點想轉發(QT)並問這個問題,但決定還是算了,沒什麼好贏的。

所以從現在起沒有安全部門了?甚至沒有專門負責安全的人?

即使你真的認為根本不應該有人以安全問題為主要工作(這本身就是一個瘋狂的立場),為什麼我們應該相信在 xAI「安全是每個人的工作」具有任何實質意義?

世界首富會說「這與我的安全計劃相比根本不算什麼,我的計劃是讓每個人的工作都是安全」,然後不讓任何人的工作是安全。

是的,安全需要成為每個人的工作。你想要分佈式的責任制。但這並不能讓你免於擁有一個專門的團隊。

對於安全(security)、招聘、維護公司文化和文檔、質量和測試、客戶關注、合規與倫理、成本管理以及許多其他事情也是如此。在某種意義上,一切都是每個人的工作。

此外,伊隆·馬斯克關於 Tesla 和 SpaceX 的陳述顯然是錯誤的。

  • Tesla 有一個環境、健康與安全(EHS)團隊。

  • Tesla 並不是最安全的車。Gemini、ChatGPT 和 都選擇了馬自達(Mazda)。Claude 選擇了富豪(Volvo)。Tesla 的安全記錄還不錯,但顯然不是最好的。

  • SpaceX 當然有很多專門從事安全工作的人,他們有一個飛行安全團隊和一個任務保證團隊。

伊隆的捍衛者們湧入評論區,既在他的帖子下,也在原帖下。他們輕蔑地解釋為什麼實際上不設立安全部門更安全,任何提到「安全」這個詞的行為都是邪惡和審查,而我也被貼上了各種標籤。

在 Twitter 上打破同溫層並不是什麼好事。我為伊隆·馬斯克的認識環境感到擔憂,因為這大概就是他整天在其中奮戰的環境。

伊隆的大軍

彷彿排好隊一樣,馬斯克召喚了一支大軍,現在他們在明確談論為什麼擁有專門從事安全性(從平庸到生存層面)的人員是件壞事,以及只有笨蛋或心懷惡意的人才會提出其他建議。這就像看著針對新冠疫苗的負面極化作為一場政治運動,實時填滿了我的提及列表。

噢,你,那個惹惱了偉大的伊隆·馬斯克的人,想讓我們不要搬起石頭砸自己的腳?好吧,安妮,拿上你的槍。看你逼我做了什麼。

如果你認為「在你的提及列表中的數百條回覆中,肯定會有某個你沒關注的人說出一些有價值的東西」,那你大錯特錯了。

這當然不能解釋為什麼聲稱到處都沒有安全性,或者他所回應的其他引用。xAI 是否有任何個人被指派負責安全?它不一定非得是一個「部門」,但聽起來擔憂並不僅限於缺乏一個部門。至少,我們已經看到了他們的成果。

孩子是我們的未來

Amanda Askell 是 Anthropic 旗下 Claude 個性和憲法的架構師。

:《華爾街日報》對我做了專訪。很多回應都是人們試圖推測我的個人政治觀點。就此而言,我試圖將我的個人政治觀點視為潛在的偏見來源,而不是認為訓練模型採用這些觀點是合適的。

:你對語言本質的看法似乎重要得多。

所有的、她的

而對她的攻擊則始終更能說明攻擊者本身。這與 最初致力於開發超智慧的有效觀點是不同的。

在其他伊隆·馬斯克安全新聞以及「為什麼你確實需要哲學家」的新聞中,以下是伊隆·馬斯克的選擇性回應,即,然後讓 Grok 解釋一個關於她名字的霸子·辛普森笑話,作為一個鏈接對話的一部分,而這對他沒有任何好處,接著他發表了這番言論:

:那些沒有孩子的人在未來缺乏利益相關。

Amanda 的前任 Will 曾提議幫助編寫 Grok 憲法,但他十年來一直在宣揚出生率下降,卻連一個孩子都沒生,Amanda 也沒有。

憲法不應由偽君子編寫。

:我認為這取決於你有多關心普通大眾與你自己的親屬。我確實打算生孩子,但我仍然覺得我在未來有很強的個人利益相關,因為我非常關心人類的繁榮,即使他們與我沒有血緣關係。

:那些「如果你沒有孩子,你就不可能關心未來」的人讓我感到道德上的厭惡。你真的無法關心那些與你沒有血緣關係的人嗎?而你認為那是別人的問題?

我完全支持多生孩子,我也確實認為孩子能幫助你更關心未來,但那……哇。真是令人驚嘆。

世界首富在 Twitter 上進行純粹的人身攻擊,這真是一個奇怪的事實,從而將原始消息的發送者放大了百倍,讓每個人自己決定誰才是那個可悲的混蛋。

:這反而證明了這一點。

雖然我絕對更願意將未來託付給 Amanda,但我確實認為 Schubert 的陳述過於強烈。清醒的人也可能有非常奇怪的信念。

。一直如此。這很煩人。

:有了孩子意味著你會不惜一切代價確保他們活著並快樂,因為你愛他們勝過愛自己的生命千倍萬倍,而且你絕不可能轉而愛上一個 AI。

記住這些話。

無論你如何看待伊隆·馬斯克在 AI 領域或對待自己孩子的行為,儘管大多數父母都對孩子盡責,但顯然許多父母並非如此,許多人並沒有那麼努力地為孩子做正確的事。許多人最終選擇了他們愛上的新對象而非自己的孩子,而且顯然已經存在愛上現有 AI 的父母,更不用說未來的 AI 會發生什麼。但願事實並非如此。

我們從這裡走向何方

這是一個極好的問題。