newsence
來源篩選

GLM5 Released on Z.ai Platform

Hacker News

The GLM5 large language model has been released on the Z.ai platform, marking a significant advancement in generative AI capabilities.

newsence

GLM5 在 Z.ai 平台上線

Hacker News
17 天前

AI 生成摘要

GLM5 大型語言模型已在 Z.ai 平台上線,標誌著生成式 AI 能力的重大進展。

背景

智譜 AI 近期在 Z.ai 平台上發布了新一代大語言模型 GLM-5,這是在 GLM-4.7 發布後不久便推出的重大更新。雖然官方尚未發布正式的技術報告或部落格文章,但該模型已在 Z.ai 的聊天介面與 API 端點上線,引發了 Hacker News 社群對於模型性能、定價策略以及本地部署可行性的熱烈討論。

社群觀點

社群對於 GLM-5 的突襲式發布感到驚訝,討論焦點首先集中在模型的可用性與定價。部分用戶發現,雖然 API 文件尚未完全更新,但透過硬編碼模型 ID 已能成功調用。在定價方面,GLM-5 目前並未包含在 Lite 或 Pro 的訂閱套餐中,而是採取按量計費模式,這讓原本習慣低廉訂閱價格的用戶開始權衡成本。有觀點指出,中國大模型公司如智譜與 DeepSeek 的競爭,極大地壓低了推論成本,甚至讓原本昂貴的 Claude 或 OpenAI 訂閱顯得不具性價比。然而,也有用戶對其寫作風格提出質疑,認為 GLM-5 仍保留了某些特定的語言慣例,疑似存在蒸餾模型的痕跡。

關於硬體與本地部署的爭論佔據了討論的大篇幅。許多愛好者認為,中國開源模型(Open Weights)的崛起是開發者的福音,讓人們能擺脫對封閉巨頭的依賴。然而,GLM-5 龐大的參數規模(如 745B)對個人硬體提出了極高要求。雖然 Apple 的 Mac Studio 或 Mac Pro 憑藉高記憶體頻寬成為運行大模型的熱門選擇,但社群對其投資報酬率(ROI)看法分歧。有計算顯示,購買一台要價一萬美元的 M3 Ultra 設備,其成本足以支付數十年的 API 調用費用,因此本地部署的動機更多是為了隱私、所有權以及在無網路環境下的自主性,而非節省開支。

此外,針對硬體效能的技術細節也有深度交鋒。部分用戶推崇使用二手伺服器硬體(如 Tesla P4 或 EPYC 處理器)搭建廉價推論陣列,認為這比 Apple 設備更具性價比。但反對者指出,Apple 的統一記憶體架構在處理超大上下文與 Agent 流程時具有不可替代的頻寬優勢。討論中也觸及了潛在的安全疑慮,有用戶擔心開源模型可能被植入後門成為「睡眠代理人」,但此觀點隨即被其他用戶反駁,認為這種威脅論過於誇大,且同樣的邏輯也能套用在任何國家的軟體上。

最後,社群達成了一種共識:無論 GLM-5 的具體評分如何,這種快速迭代且開放權重的模式正在改變 AI 生態。它迫使市場競爭加劇,讓「擁有自己的智慧」從昂貴的幻想逐漸變為技術愛好者可以觸及的現實,即便在現階段,對於大多數人來說,使用 API 仍然是比自建硬體更理性的選擇。

延伸閱讀

  • Z.ai 官方平台:提供 GLM-5 與 GLM-4.7 的聊天與 Agent 服務。
  • DeepSeek V3/Kimi K2.5:留言中多次提及與 GLM-5 競爭的同類大型開源模型。
  • vLLM-MLX:用於在 Apple Silicon 上加速模型推論的框架。
  • ktransformers + sglang:留言提到的另一種優化硬體推論效率的技術組合。