A CPU that runs entirely on GPU
Hacker News
nCPU is a research project that implements a 64-bit ARM64 CPU architecture entirely on a GPU, where every ALU operation is performed by a trained neural network instead of hardcoded logic.
Hacker News
nCPU is a research project that implements a 64-bit ARM64 CPU architecture entirely on a GPU, where every ALU operation is performed by a trained neural network instead of hardcoded logic.
AI 生成摘要
nCPU 是一個研究專案,它在 GPU 上完全實現了 64 位元 ARM64 CPU 架構,其中所有的算術邏輯單元運算都是透過訓練好的神經網路模型來執行,而非傳統的硬體編碼邏輯。
nCPU 是一個極具實驗性質的開源專案,旨在研究如何完全在 GPU 上運行一個 CPU。該專案將暫存器、記憶體、旗標與程式計數器全部以 PyTorch 張量的形式呈現,並將每一項算術邏輯單元(ALU)操作替換為經過訓練的神經網路模型。這意味著傳統的加法、乘法或位移運算不再是硬體電路邏輯,而是透過神經網路的推論來完成,甚至在專案中成功執行了 ARM64 指令集與 DOOM 光線投射演示。
Hacker News 社群對此專案展現了高度的興趣與幽默感,討論核心圍繞在「神經網路模擬硬體」的哲學意義與實際效能。許多網友驚嘆於運算邏輯的倒置現象,在傳統 CPU 中,乘法通常比加法慢且複雜,但在這個神經網路 CPU 中,乘法透過位元組對查找表實現,完全消除了順序依賴性,導致其速度反而比需要處理進位鏈的加法快上十二倍。這種硬體設計原則在神經架構中產生奇妙轉化的現象,被認為是該研究最有趣的發現之一。
然而,效能差距仍是討論中不可忽視的現實。有網友根據數據推算,這種模擬方式比傳統 2.5GHz 的 CPU 慢了約六十二萬倍。儘管如此,部分評論者指出該專案的價值不在於追求極致速度,而在於證明了使用機器學習中常見的神經網路結構,也能精確地模擬完整的 Aarch64 指令集。這種做法甚至可能讓專案在不具備通用運算能力的 NPU 上運行。有觀點認為,若要追求速度,應該採用類似 QEMU 的方法將指令編譯為著色器程序,但 nCPU 選擇了一條更純粹的神經網路路徑。
關於應用場景,社群內引發了一場關於大型語言模型(LLM)能力的爭論。支持者認為,讓 LLM 具備精確數學運算能力至關重要,而這種將運算邏輯「神經化」的研究有助於模型在不依賴外部工具的情況下提高可靠性。但反對者則諷刺地指出,這是在原本就極其高效的硬體之上,疊加了一層極其低效的模擬層,認為與其讓模型模擬 CPU,不如讓模型學會如何調用底層硬體工具。
最後,社群中也不乏幽默的調侃。有網友笑稱這實現了「在神經網路上低效運行 CPU」的夢想,並預言未來可能需要消耗近百萬瓦的電力,才能在 GPU 上模擬出一顆 100MHz 的 486 處理器。這種看似荒謬的技術路徑,實際上反映了開發者對運算本質的探索,正如網友所言,這是一個將硬體邏輯與神經網路邊界模糊化的精彩嘗試。
在討論中,有網友提到了一篇六年前的預言性文章《Graph Computation》,該文探討了圖運算與硬體模擬的演進趨勢,與 nCPU 的理念不謀而合。