// 概要
Context Mode は、生データをサンドボックス化された SQLite データベースにオフロードすることで、コンテキストウィンドウの枯渇を防ぐように設計された MCP サーバーです。セッションイベントを追跡し、BM25 検索を使用して、会話の圧縮後も AI エージェントが関連情報を保持できるようにします。さらに、簡潔な出力パターンを強制し、コードベースの分析を促進することで、トークン消費量を大幅に削減します。
// 技術解説
Context Mode は、生データをローカルの SQLite ベースのサンドボックスにオフロードすることで LLM のコンテキストウィンドウを最適化し、トークン使用量を最大 98% 削減するように設計された MCP サーバーです。LLM をデータプロセッサとして扱うのではなく、コードジェネレーターとして活用するパラダイムへとシフトさせ、モデルが大量の生データを出力する代わりに分析を実行するスクリプトを記述するようにします。FTS5 インデックスによるセッションの継続性と簡潔な出力圧縮を実装することで、会話の圧縮中におけるコンテキストの損失を防ぎ、エージェント全体の効率を向上させます。
// 主要ハイライト
// ユースケース
// クイックスタート
開始するには、npm を介してパッケージをグローバルにインストールし、提供された MCP サーバー定義とフック設定をプロジェクトまたはグローバル設定に追加して、特定の IDE または CLI ツールを設定します。インストールが完了したら、「ctx-doctor」コマンドを実行するか、エージェントのチャットインターフェースで「ctx stats」を使用してステータスを確認し、セットアップを検証してください。環境に適したルーティングとフック登録を確実に行うため、README のプラットフォーム固有のインストールセクションを参照してください。