Making MCP cheaper via CLI
Hacker News
The author demonstrates how converting Model Context Protocol (MCP) servers into Command Line Interfaces (CLI) can reduce token usage by 94% by replacing heavy JSON Schema dumps with lazy-loading discovery.
Hacker News
The author demonstrates how converting Model Context Protocol (MCP) servers into Command Line Interfaces (CLI) can reduce token usage by 94% by replacing heavy JSON Schema dumps with lazy-loading discovery.
AI 生成摘要
我透過將 MCP 伺服器轉換為 CLI,將成本降低了 94%,這主要是透過將原本一次性傾倒的完整 JSON Schema 替換為輕量化的延遲載入機制來實現的。
隨著 AI Agent 的普及,Model Context Protocol (MCP) 成為連接大型語言模型與外部工具的主流標準。然而,現行的 MCP 運作機制往往在對話開始時就將完整的工具清單與 JSON Schema 塞入上下文,導致 Token 消耗劇增。開發者 Kanyilmaz 提出將 MCP 伺服器轉換為命令列介面(CLI)的方案,主張透過延遲加載與按需檢索,能有效降低高達 94% 的 Token 成本。
針對這項優化方案,Hacker News 社群展開了熱烈討論,核心爭議點在於「Token 節省」與「模型理解力」之間的權衡。支持者如 thellimist 指出,實際測試發現模型在使用 GitHub CLI (gh) 時的表現往往優於專門的 GitHub MCP,這歸功於模型在訓練階段已接觸過大量 CLI 使用案例。此外,CLI 模式允許模型利用 Unix 哲學中的「導管」(Pipe)概念,將多個指令串接處理,例如配合 jq 或 grep 進行數據過濾,這比處理 MCP 回傳的龐大 JSON 數據更具效率且更符合模型的推理邏輯。
然而,部分開發者對此持保留態度。bdavbdav 認為 MCP 提供的詳細 JSON Schema 對於模型理解工具的邊界至關重要,特別是針對缺乏公開訓練數據的內部私有工具,若缺乏完整的描述,模型可能無法準確判斷何時該調用該工具。此外,也有意見指出 Anthropic 推出的 Tool Search 功能已經在解決類似問題,透過索引檢索而非全量加載,同樣能達到顯著的 Token 減量。對此,原作者反駁稱 Tool Search 仍具備平台侷限性,且在獲取具體工具定義時依然會拉取沉重的 Schema,不如 CLI 的 --help 指令來得輕量。
在技術實現層面,社群也討論了不同工具的優劣。有人提到 MCPorter 等現有轉換工具,但 CLIHub 的作者強調其採用 Go 語言開發,具備零依賴、跨平台編譯以及更完善的 OAuth2 認證支持,更適合分發與 CI 環境。另一派觀點則認為,CLI 的優勢不僅在於 Token 成本,更在於其天然具備的審計追蹤能力,開發者可以輕鬆記錄並回放模型執行的指令軌跡,這在安全性與權限控管上比黑盒化的 MCP 調用更具透明度。
最後,討論也觸及了 AI 生成內容的爭議。部分讀者批評該文章帶有明顯的 AI 寫作痕跡,認為這種風格對讀者不夠尊重。作者則大方承認文章是由語音紀錄經由 AI 轉化而成,並強調這正是 AI Agent 提升生產力的實踐。這場討論反映出開發者社群正處於一個轉折點:從追求功能的完整實現,轉向追求更極致的運行效率與更符合傳統 Unix 哲學的工具調用方式。