Show HN: Context Mode – 315 KB of MCP output becomes 5.4 KB in Claude Code Hacker News
2026-02-25T06:23:30.000Z Context Mode is an MCP server that drastically reduces context window consumption by compressing large tool outputs into concise summaries, achieving up to 98% reduction in data size.
Show HN:Context Mode – 將 Claude Code 中 315 KB 的 MCP 輸出壓縮至 5.4 KB
AI 生成摘要
Context Mode 是一個 MCP 伺服器,透過將大型工具輸出壓縮成簡潔的摘要,大幅減少上下文視窗的消耗,實現高達 98% 的數據減量。
背景
在 AI 代理程式(AI Agents)的開發過程中,模型與外部工具的互動頻繁消耗大量上下文空間。當開發者使用 Claude Code 或其他基於模型上下文協議(MCP)的工具時,Playwright 的快照、GitHub 的問題列表或伺服器日誌等原始數據,往往會迅速填滿有限的上下文視窗,導致對話在短時間內便因資訊過載而效能下降。Context Mode 是一個開源的 MCP 伺服器,旨在透過沙盒化處理與確定性的文本處理技術,將數百 KB 的原始輸出壓縮至數 KB 的摘要,從而延長 AI 代理程式的有效作業時間。
社群觀點
Hacker News 的討論主要圍繞在 Context Mode 的技術實現路徑及其在實際應用中的可靠性。社群成員對於該工具選擇「非 LLM」的處理方式表示高度肯定。開發者 vicchenai 指出,採用 SQLite FTS5 搭配 BM25 演算法進行檢索,而非調用另一個模型進行壓縮,是極為正確的決策。這種做法不僅避免了額外的推理延遲與 Token 成本,更保證了處理過程的確定性。然而,這種「有損壓縮」也引發了關於資訊遺失的疑慮。參與者關心當關鍵信號隱藏在大量數據中,且初始查詢未能精準命中時,系統是否具備補救機制。對此,作者解釋系統並非丟棄數據,而是將完整內容存儲在沙盒內的持久化索引中,模型可以透過多次不同角度的搜尋來挖掘深層資訊,且系統會主動提供特徵詞彙表以引導模型進行後續查詢。
關於效能評估的基準,社群也進行了細緻的探討。有留言者質疑開發者在描述節省空間時使用「千位元組(KB)」而非「Token 數量」的準確性。作者坦承目前的統計是基於位元組大小的估算,雖然與 Claude 實際的 Tokenizer 略有出入,但在衡量相對節省比例上具有足夠的參考價值。此外,安全性與隱私保護也是討論的焦點之一。由於該工具會處理敏感的 CLI 輸出與日誌,開發者們關心數據的留存問題。目前 Context Mode 採用臨時資料庫機制,數據僅隨進程生命週期存在,社群進一步建議未來可加入基於正規表達式的去識別化層,在數據進入索引前即過濾掉敏感資訊。
最後,社群對於該工具的跨平台相容性展現出濃厚興趣。雖然 Context Mode 最初是為 Claude Code 設計,但由於其遵循標準的 MCP 協議,討論中確認了它同樣能整合至 OpenCode 或 Codex 等其他支援該協議的客戶端。這種標準化的設計讓開發者看到了一個通用的「上下文過濾層」雛形,有望解決目前 AI 代理程式普遍面臨的「上下文通膨」困境。
延伸閱讀
Cloudflare Code Mode:Context Mode 的靈感來源,專注於工具定義的壓縮。
SQLite FTS5 與 BM25 演算法:Context Mode 核心檢索技術,用於實現高效的全文搜尋與相關性排序。
MCP (Model Context Protocol):由 Anthropic 推出的開放標準,使 AI 模型能以統一方式連接各類數據源與工具。