Nvidia’s Deal With Meta Signals a New Era in Computing Power
Wired - AI
The days of tech giants buying up discrete chips are over. AI companies now need GPUs, CPUs, and everything in between.
Wired - AI
The days of tech giants buying up discrete chips are over. AI companies now need GPUs, CPUs, and everything in between.
AI 生成摘要
科技巨頭購買單一晶片的時代已經結束。AI 公司現在需要 GPU、CPU 以及兩者之間的一切,輝達與 Meta 的交易正預示著運算能力新時代的到來。
問任何人 Nvidia 生產什麼,他們很可能會先說「GPU」。幾十年來,這家晶片製造商一直以先進的並行運算為核心,而生成式 AI 的興起以及隨之而來的 GPU 需求激增,對該公司來說是一大利多。
但 Nvidia 最近的舉動顯示,它正尋求在 AI 市場中運算密集度較低的一端鎖定更多客戶——這些客戶不一定需要最強大、最頂級的 GPU 來訓練 AI 模型,而是尋求以最有效率的方式來運行代理式 AI(agentic AI)軟體。Nvidia 最近斥資數十億美元,向一家專注於低延遲 AI 運算的晶片新創公司授權技術,並開始銷售獨立的 CPU,作為其最新超級晶片系統的一部分。
昨天,Nvidia 和 Meta 宣布,這家社群媒體巨頭已同意購買價值數十億美元的 Nvidia 晶片,為其龐大的基礎設施項目提供運算能力——而 Nvidia 的 CPU 也是該交易的一部分。
這項為期多年的協議是兩家公司之間緊密合作關係的進一步擴展。Meta 此前估計,到 2024 年底,它將向 Nvidia 購買 35 萬顆 H100 晶片,到 2025 年底,該公司總共將擁有 130 萬顆 GPU(儘管尚不清楚是否全部為 Nvidia 晶片)。
作為最新公告的一部分,Nvidia 表示 Meta 將「建立針對訓練和推理進行優化的超大規模數據中心,以支持公司的長期 AI 基礎設施藍圖」。這包括「大規模部署」Nvidia 的 CPU 以及「數百萬顆 Nvidia Blackwell 和 Rubin GPU」。
值得注意的是,Meta 是第一家宣布大規模採購 Nvidia Grace CPU 作為獨立晶片的科技巨頭,Nvidia 在 1 月份透露其新 Vera Rubin 超級晶片的完整規格時曾表示這將是一個選項。Nvidia 也一直強調其提供連接各種晶片的技術,正如一位分析師所言,這是其運算能力的「一條龍方案」。
科技市場研究公司 Creative Strategies 的執行長兼首席分析師 Ben Bajarin 表示,此舉顯示 Nvidia 意識到,越來越多的 AI 軟體現在需要在 CPU 上運行,就像傳統的雲端應用程式一樣。他說:「業界目前之所以如此看好數據中心內的 CPU,是因為代理式 AI 對通用 CPU 架構提出了新需求。」
晶片新聞通訊 Semianalysis 最近的一份報告強調了這一點。分析師指出,為了支持 AI 訓練和推理,CPU 的使用正在加速,並以微軟為 OpenAI 建立的一個數據中心為例,在那裡「現在需要數萬顆 CPU 來處理和管理 GPU 產生的數 PB 數據,如果沒有 AI,這種用例本來是不需要的。」
不過,Bajarin 指出,CPU 仍然只是最先進 AI 硬體系統中的一個組件。Meta 向 Nvidia 購買的 GPU 數量仍然遠遠超過 CPU。
「如果你是超大規模雲端業者之一,你不會把所有的推理運算都放在 CPU 上運行,」Bajarin 說。「你只需要在 CPU 上運行的軟體速度夠快,能與實際驅動運算的 GPU 架構互動即可。否則,CPU 就會成為瓶頸。」
Meta 拒絕對其與 Nvidia 擴大合作的交易發表評論。在最近的一次財報電話會議上,這家社群媒體巨頭表示,計劃今年將 AI 基礎設施支出大幅增加至 1,150 億至 1,350 億美元之間,高於去年的 722 億美元。
同樣拒絕對新交易發表評論的 Nvidia 多年來一直表示,其硬體除了用於前沿 AI 訓練外,還可用於推理運算需求。兩年前,在接受 WIRED 專訪時,Nvidia 創辦人兼執行長黃仁勳估計,Nvidia 的業務可能「40% 是推理,60% 是訓練」。
去年 12 月,Nvidia 宣布斥資 200 億美元向晶片新創公司 Groq 授權技術,並將 Groq 的一些頂尖人才(包括執行長 Jonathan Ross)納入 Nvidia 麾下。根據 Groq 的聲明,這筆交易反映了「共同致力於擴大高性能、低成本推理的獲取途徑」。這筆交易代表了 Nvidia 迄今為止規模最大的收購案。
Nvidia 與 Meta 的交易達成之際,最著名的 AI 實驗室和市值數兆美元的軟體公司正尋求多元化其運算能力來源。在過去幾年中,OpenAI、Anthropic、Meta、XAI 和許多其他公司在訓練和部署生成式 AI 模型時,都依賴 Nvidia 硬體來承擔重任。
現在,在許多情況下,他們正在建立或客製化自己的晶片,這給 Nvidia 帶來了提供更多服務的壓力。
微軟的 AI 雲端服務依賴 Nvidia GPU 和自研晶片的組合。Google 也在雲端服務中使用 Nvidia 晶片,但主要依靠其自研的張量處理單元(TPU)來訓練和部署其先進的 AI 模型。據報導,Google 還考慮將其 TPU 出售給 Meta。
Anthropic 的 Claude AI 模型使用 Nvidia GPU、Google 的 TPU 和來自亞馬遜(其最重要的少數股東之一)的晶片組合。(Anthropic 共同創辦人兼執行長 Dario Amodei 也是少數公開批評黃仁勳遊說美國政府允許 Nvidia 向中國銷售先進晶片的高管之一。)
OpenAI 去年與 Nvidia 簽署了一項價值可能高達 1,000 億美元的大規模 AI 基礎設施協議,該公司已公開表示正與博通(Broadcom)合作開發自己的 AI 晶片硬體和網路系統。
OpenAI 執行長 Sam Altman 去年 6 月在 AMD 的年度 AI 大會上與 AMD 執行長蘇姿丰同台;兩人後來達成協議,OpenAI 將在未來幾年購買高達 6 GW 的 AMD 晶片,以換取可能收購 AMD 10% 的股份。AMD 以其 CPU 聞名,儘管它在 AI 加速器和 AI GPU 市場的份額也一直在增長。
就在兩週前,OpenAI 宣布計劃使用 Cerebras 的技術,為 OpenAI 的平台增加「750MW 的超低延遲 AI 運算」。這筆交易價值 100 億美元——雖然不如與 Nvidia 的交易規模大,但也並非微不足道。
「AI 實驗室尋求多元化是因為需求正在改變,是的,但主要原因仍然是他們無法獲得足夠的 GPU,」Bajarin 說。「只要哪裡能弄到晶片,他們就會去哪裡。」
收件匣:訂閱我們新的 Tracker: ICE 電子報
TikTok 現在收集更多你的數據
大故事:ICE 假裝自己是一支軍隊,但這會讓士兵送命
微量服用治療抑鬱症的效果與喝咖啡差不多
Marhaba,世界!介紹 WIRED 中東版
© 2026 Condé Nast。保留所有權利。作為與零售商聯盟夥伴關係的一部分,WIRED 可能會從通過我們網站購買的產品中獲得部分銷售分成。未經 Condé Nast 事先書面許可,不得複製、分發、傳輸、快取或以其他方式使用本網站上的材料。廣告選擇