Show HN: AI Timeline – 171 LLMs from Transformer (2017) to GPT-5.3 (2026) Hacker News
2026-02-23T09:07:44.000Z This comprehensive AI timeline tracks the evolution of 194+ large language models starting from the original Transformer paper in 2017 through projected future releases like GPT-5.3 in 2026.
Show HN:AI 時間軸 — 從 Transformer (2017) 到 GPT-5.3 (2026) 的 171 個大型語言模型
AI 生成摘要
這份完整的 AI 時間軸追蹤了從 2017 年 Transformer 論文發表至今,超過 194 個大型語言模型的演進歷史,並延伸至預測 2026 年發布的 GPT-5.3。
背景
這篇討論源於一個名為「AI Timeline」的互動式網站,該工具追蹤了從 2017 年 Transformer 模型問世以來,超過 190 個大型語言模型(LLM)的發展歷程。該網站提供視覺化的時間軸,讓使用者能根據開源或閉源屬性進行篩選,並涵蓋了 54 個主要的開發組織,甚至預測了未來如 GPT-5.3 等模型的可能發布時程。
社群觀點
針對這份時間軸的完整性,社群成員提出了多項專業補充與修正建議。有評論者指出,早期一些具備里程碑意義的模型被遺漏了,例如 EleutherAI 開發的 GPT-J,它是首批能在消費級硬體上運行的模型之一,對於在地化模型的普及具有啟蒙意義;此外,GPT-NeoX 作為早期嘗試挑戰 GPT-3 規模的開源努力,也應被納入史冊。關於「里程碑」的定義,討論區出現了熱烈辯論,有意見認為 T5 模型的重要性遠超許多現有標記,而 Llama 3.1 之所以被作者列為里程碑,是因為其 405B 版本標誌著開源模型首次在性能上足以與 GPT-4 等頂級閉源模型並駕齊驅。
在視覺呈現與使用者體驗方面,社群展現了對細節的執著。部分使用者強烈建議加入「淺色模式」,認為全黑背景的設計對特定閱讀族群並不友善。更有創意性的提議指出,如果時間軸能隨著捲動展示神經網路架構的視覺縮放圖,讓使用者直觀感受模型如何變得更深、更寬,將會更具教育意義。然而,也有開發者感嘆,儘管 AI 生成技術進步神速,但在處理 CSS 佈局與視覺呈現的細微感知上,AI 仍難以完全取代人類的手工調整,往往需要多次迭代才能達到理想的視覺效果。
此外,討論也延伸到了模型能力的本質與侷限。有使用者質疑模型是否會「故意」在程式碼中製造錯誤以模仿人類行為,但資深開發者反駁了這種觀點,認為這純粹是模型在未經強化學習(RL)覆蓋的領域表現不佳所致。模型在解決問題時往往需要多次嘗試,並非出於刻意誤導,而是因為其遵循指令的能力仍受限於訓練數據與評估者的專業水平。
最後,關於標題稱之為「AI 完整歷史」也引發了定義上的爭議。資深研究者提醒,人工智慧的領域遠比大型語言模型廣闊且悠久,在 ChatGPT 爆紅之前,電腦視覺等領域早已帶動過一波產業與投資熱潮。作者隨後採納建議,將標題修正為更精確的「LLM 完整歷史」,以承認這份時間軸專注於 2017 年後的 Transformer 時代,而非涵蓋數十載的 AI 全貌。
延伸閱讀
LifeArchitect.ai:由 Dr. Alan D. Thompson 維護的模型表格,收錄超過 750 個模型,內容極為詳盡。
DCLM-7B:Apple 推出的模型,被社群認為是首個在數據開放性與競爭力上取得平衡的指標性作品。