40
// 项目简介
Context Mode 是一款 MCP server,旨在通过将原始数据卸载到沙盒 SQLite 数据库中来防止上下文窗口耗尽。它通过跟踪会话事件并使用 BM25 搜索仅检索相关信息,确保 LLM 在对话压缩期间保持连贯性。此外,它提倡一种代码优先的方法,即让 agent 编写脚本来处理数据,从而显著降低 token 消耗。
// 技术分析
Context Mode 是一个 MCP 服务器,旨在通过防止工具调用产生的原始数据堆积来优化 LLM 上下文窗口。它采用沙盒优先架构,将数据处理卸载到 SQLite,并利用 FTS5 和 BM25 搜索在会话压缩期间仅检索相关信息。通过将范式从将 LLM 视为数据处理器转变为代码生成器,该项目显著降低了 token 消耗,并保持了跨各种 AI 开发平台的会话连续性。
// 核心亮点
01
通过将原始工具数据放入沙盒而不是直接转储到上下文窗口中,最高可减少 98% 的上下文使用量。
02
通过在 SQLite 数据库中跟踪文件编辑、git 操作和任务以进行智能检索,从而保持会话连续性。
03
实现了“代码思维”理念,即 LLM 编写脚本来处理数据,用高效的代码执行取代多次工具调用。
04
提供了一套实用命令,如 ctx-stats 和 ctx-insight,用于监控 token 节省情况并分析代理性能指标。
05
通过专门的钩子和路由配置,支持在 Claude Code、Gemini CLI、VS Code Copilot 和 Cursor 等多个平台之间进行无缝集成。
// 典型使用场景
01
通过将原始工具数据卸载到沙盒 SQLite 数据库中来实现上下文保存
02
通过索引事件跟踪和相关检索来保持会话连贯性
03
使用代码思维范式来替代多次工具调用,从而实现高效脚本处理
// 快速开始
首先,使用 'npm install -g context-mode' 全局安装该包。根据您的平台,按照 README 中针对您环境提供的具体说明配置 MCP 服务器和钩子(例如,添加到配置文件中的 'mcpServers')。安装完成后,通过在代理的聊天界面中运行 'ctx doctor' 或 'ctx stats' 来验证设置。