newsence
來源篩選

Stop Burning Your Context Window – How We Cut MCP Output by 98% in Claude Code

Hacker News

The author introduces Context Mode, an MCP server that acts as a sandbox between Claude Code and tool outputs, reducing data volume from 315 KB to 5.4 KB to extend session longevity.

newsence

別再浪費你的上下文視窗:我們如何將 Claude Code 中的 MCP 輸出減少 98%

Hacker News
大約 12 小時前

AI 生成摘要

我們開發了 Context Mode,這是一個位於 Claude Code 與工具輸出之間的 MCP 伺服器,能將 315 KB 的數據縮減至 5.4 KB,讓我們在上下文退化前的工作時間延長了 6 倍。

背景

隨著 AI Agent 逐漸成為開發者的日常工具,Model Context Protocol (MCP) 已成為連接模型與外部工具的標準。然而,頻繁的工具調用會產生大量原始數據,迅速填滿有限的上下文視窗(Context Window),導致對話品質下降並增加成本。本文作者 Mert Köseoğlu 介紹了名為 Context Mode 的開源工具,透過在 Claude Code 與 MCP 之間建立沙盒過濾層,將原始輸出轉化為精簡的標準輸出,宣稱能減少高達 98% 的上下文消耗,讓開發者在單次對話中能維持更長的高效工作時間。

社群觀點

Hacker News 的討論主要圍繞在上下文管理的必要性以及技術實作的細節。多數參與者對此工具持正面態度,認為這解決了當前 AI 代理工作流中的核心痛點。有評論者指出,上下文膨脹的問題不僅發生在單次工具調用,更具備累積效應;例如在多步驟的工作流中,第一步產生的龐大快照數據會持續存在於後續所有步驟的對話狀態中,這往往迫使開發者在「手動摘要」、「截斷日誌」或「限制工作流深度」等糟糕的選項中做選擇。Context Mode 透過 subprocess 隔離與 stdout 限制,被認為是處理這類狀態累積的正確約束方式。

在技術細節上,社群對憑證傳遞(Credential Passthrough)的安全性與持久性表現出濃厚興趣。作者解釋該工具採用了標準的 Unix 進程繼承機制,透過白名單過濾環境變數,確保如 GitHub 或 AWS 的認證資訊能安全地傳遞給子進程,而不會洩漏無關的環境變數。這種設計雖然不具備跨調用的狀態持久性,但由於大多數 CLI 工具本身就具備解析本地配置的能力,因此在實務上非常穩定。此外,也有人讚賞其結合 SQLite FTS5 與 BM25 演算法的檢索機制,認為這比單純將日誌丟給模型處理更具效率,因為它在索引階段就完成了相關性過濾,而非讓模型在充滿噪音的上下文中掙扎。

然而,社群也提出了一些關於「預先壓縮」可能帶來的副作用。有觀點擔心,如果工具在進入上下文前就決定了哪些資訊是重要的,可能會導致模型遺漏某些看似無關但實際上關鍵的邊緣案例。對此,有討論建議未來應加入更細粒度的上下文控制,例如允許模型在完成除錯任務後,主動「回溯」並修剪掉那些已無意義的錯誤嘗試紀錄。這種將上下文視為可自由操作的記憶體,而非單向增長的堆疊,被認為是下一代 AI 代理優化的重要方向。更有資深開發者感嘆,現在的 AI 代理開發環境彷彿回到了 1990 年代末期,開發者正利用豐富的工程經驗,在全新的 AI 生態中重新發現並應用那些經典的優化原則。

延伸閱讀

  • Claude Context Mode GitHub 儲存庫:包含原始碼、安裝指南以及如何將 Bash 子代理升級為通用代理的說明。
  • Cloudflare Code Mode:啟發此專案的相關技術文章,主要討論如何壓縮工具定義(Tool Definitions)。