ホームMCPmksglu/context-mode
// archived 2026-04-27
mksglu

context-mode

AI#MCP#LLM#Context Window#Agentic Workflow#SQLite
GitHub で見る →
24

// 概要

Context Mode は、生データをサンドボックス化された SQLite データベースにオフロードすることで、コンテキストウィンドウの枯渇を防ぐように設計された MCP サーバーです。セッションイベントを追跡し、BM25 検索を使用して、会話の圧縮後も AI エージェントが関連情報を保持できるようにします。さらに、簡潔な出力パターンを強制し、コードベースの分析を促進することで、トークン消費量を大幅に削減します。

// 技術解説

Context Mode は、生データをローカルの SQLite ベースのサンドボックスにオフロードすることで LLM のコンテキストウィンドウを最適化し、トークン使用量を最大 98% 削減するように設計された MCP サーバーです。LLM をデータプロセッサとして扱うのではなく、コードジェネレーターとして活用するパラダイムへとシフトさせ、モデルが大量の生データを出力する代わりに分析を実行するスクリプトを記述するようにします。FTS5 インデックスによるセッションの継続性と簡潔な出力圧縮を実装することで、会話の圧縮中におけるコンテキストの損失を防ぎ、エージェント全体の効率を向上させます。

// 主要ハイライト

01
ツール呼び出しからの生データをサンドボックス化することで、コンテキストウィンドウの消費量を最大 98% 削減します。
02
セッション状態を SQLite で保持し、コンテキスト圧縮後もモデルが正確にタスクを再開できるようにします。
03
LLM がデータを処理するためのスクリプトを生成する「think in code」アプローチを促進し、冗長なツール出力を置き換えます。
04
出力を圧縮してフィラーや挨拶を削除し、出力トークンの使用量を 65-75% 削減します。
05
生産性、コンテキストの健全性、委任スコアを追跡するための 90 個のメトリクスを備えたインサイトダッシュボードを提供します。
06
Claude Code、Gemini CLI、VS Code Copilot、Cursor などの複数のプラットフォーム間でのシームレスな統合をサポートします。

// ユースケース

01
Context Saving: 生データをコンテキストウィンドウからオフロードし、トークン使用量を最大 98% 削減します。
02
Session Continuity: ファイル編集や git 操作を SQLite にインデックス化し、長時間のセッションでも正確な取得を可能にします。
03
Think in Code: LLM が大きなファイルをコンテキストに読み込む代わりに、データ分析用のスクリプトを実行できるようにします。

// クイックスタート

開始するには、npm を介してパッケージをグローバルにインストールし、提供された MCP サーバー定義とフック設定をプロジェクトまたはグローバル設定に追加して、特定の IDE または CLI ツールを設定します。インストールが完了したら、「ctx-doctor」コマンドを実行するか、エージェントのチャットインターフェースで「ctx stats」を使用してステータスを確認し、セットアップを検証してください。環境に適したルーティングとフック登録を確実に行うため、README のプラットフォーム固有のインストールセクションを参照してください。