newsence
來源篩選

Show HN: Context Mode – 315 KB of MCP output becomes 5.4 KB in Claude Code

Hacker News

Context Mode is an MCP server that drastically reduces context window consumption by compressing large tool outputs into concise summaries, achieving up to 98% reduction in data size.

newsence

Show HN:Context Mode – 將 Claude Code 中 315 KB 的 MCP 輸出壓縮至 5.4 KB

Hacker News
4 天前

AI 生成摘要

Context Mode 是一個 MCP 伺服器,透過將大型工具輸出壓縮成簡潔的摘要,大幅減少上下文視窗的消耗,實現高達 98% 的數據減量。

背景

在 AI 代理程式(AI Agents)的開發過程中,模型與外部工具的互動頻繁消耗大量上下文空間。當開發者使用 Claude Code 或其他基於模型上下文協議(MCP)的工具時,Playwright 的快照、GitHub 的問題列表或伺服器日誌等原始數據,往往會迅速填滿有限的上下文視窗,導致對話在短時間內便因資訊過載而效能下降。Context Mode 是一個開源的 MCP 伺服器,旨在透過沙盒化處理與確定性的文本處理技術,將數百 KB 的原始輸出壓縮至數 KB 的摘要,從而延長 AI 代理程式的有效作業時間。

社群觀點

Hacker News 的討論主要圍繞在 Context Mode 的技術實現路徑及其在實際應用中的可靠性。社群成員對於該工具選擇「非 LLM」的處理方式表示高度肯定。開發者 vicchenai 指出,採用 SQLite FTS5 搭配 BM25 演算法進行檢索,而非調用另一個模型進行壓縮,是極為正確的決策。這種做法不僅避免了額外的推理延遲與 Token 成本,更保證了處理過程的確定性。然而,這種「有損壓縮」也引發了關於資訊遺失的疑慮。參與者關心當關鍵信號隱藏在大量數據中,且初始查詢未能精準命中時,系統是否具備補救機制。對此,作者解釋系統並非丟棄數據,而是將完整內容存儲在沙盒內的持久化索引中,模型可以透過多次不同角度的搜尋來挖掘深層資訊,且系統會主動提供特徵詞彙表以引導模型進行後續查詢。

關於效能評估的基準,社群也進行了細緻的探討。有留言者質疑開發者在描述節省空間時使用「千位元組(KB)」而非「Token 數量」的準確性。作者坦承目前的統計是基於位元組大小的估算,雖然與 Claude 實際的 Tokenizer 略有出入,但在衡量相對節省比例上具有足夠的參考價值。此外,安全性與隱私保護也是討論的焦點之一。由於該工具會處理敏感的 CLI 輸出與日誌,開發者們關心數據的留存問題。目前 Context Mode 採用臨時資料庫機制,數據僅隨進程生命週期存在,社群進一步建議未來可加入基於正規表達式的去識別化層,在數據進入索引前即過濾掉敏感資訊。

最後,社群對於該工具的跨平台相容性展現出濃厚興趣。雖然 Context Mode 最初是為 Claude Code 設計,但由於其遵循標準的 MCP 協議,討論中確認了它同樣能整合至 OpenCode 或 Codex 等其他支援該協議的客戶端。這種標準化的設計讓開發者看到了一個通用的「上下文過濾層」雛形,有望解決目前 AI 代理程式普遍面臨的「上下文通膨」困境。

延伸閱讀

  • Cloudflare Code Mode:Context Mode 的靈感來源,專注於工具定義的壓縮。
  • SQLite FTS5 與 BM25 演算法:Context Mode 核心檢索技術,用於實現高效的全文搜尋與相關性排序。
  • MCP (Model Context Protocol):由 Anthropic 推出的開放標準,使 AI 模型能以統一方式連接各類數據源與工具。