ホームLLMJuliusBrussee/caveman
// archived 2026-05-02
JuliusBrussee

caveman

AI🌱 NEW PROJECT BOOST#LLM#Claude#Prompt Engineering#Token Optimization#Agentic Workflow
GitHub で見る →
88

// 概要

Caveman は AI エージェント向けの専用プラグインであり、簡潔な電報形式の通信スタイルを強制することで出力トークンの使用量を大幅に削減します。圧縮ツールを通じて技術的な正確性を完全に維持しつつ、出力トークンを約 75% 、入力トークンを約 46% 削減可能です。本プロジェクトは Claude Code 、 Cursor 、 Gemini などの多様なエージェントをサポートしており、複数の強度レベルや 文言文 のような専門モードを提供します。

// 技術解説

Caveman は、 LLM の対話を最適化するために設計された専門的なプラグインおよびスキルセットであり、極めて簡潔な「原始人風」のコミュニケーションスタイルを強制することで、トークン消費量を大幅に削減します。冗長な表現や挨拶、不要な文章を排除しつつ技術的な正確性を維持することで、このプロジェクトは出力トークンを平均 75% 、圧縮ツールを通じて入力トークンを 46% 削減します。このアーキテクチャは、簡潔さが技術的アウトプットの品質を損なうことなく可読性と速度を向上させるという哲学に基づいて構築されており、簡潔さの制約に関する実証的なベンチマークと研究によって裏付けられています。

// 主要ハイライト

01
技術的な内容を保持したまま、不要な情報を削除することで出力トークンの使用量を約 75% 削減します。
02
メモリファイルを簡潔な形式に書き換えることで、入力トークンを約 46% 削減する圧縮ツールが含まれています。
03
極限の古典中国語圧縮を実現するユニークな「Wenyan」モードなど、複数の強度レベルを提供します。
04
効率的なバージョン管理とコード分析のために、 /caveman-commit や /caveman-review といった専用コマンドを提供します。
05
Claude Code 、 Cursor 、 Windsurf 、 Gemini CLI 、 GitHub Copilot を含む幅広い AI エージェントをサポートしています。
06
長文を排除し、電報のような高密度なコミュニケーションを採用することで、応答速度と可読性を向上させます。

// ユースケース

01
エージェントの応答を圧縮することで LLM API のコストとレイテンシを劇的に削減します。
02
簡潔でプロフェッショナルなコミットメッセージや 1 行のコードレビューを生成します。
03
CLAUDE.md のような長文のメモリファイルを圧縮し、セッション全体で入力トークンを節約します。

// クイックスタート

開始するには、提供されているインストールテーブルから希望する AI エージェントを特定し、 Claude Code の場合は 'claude plugin install caveman@caveman' 、その他のサポートされているエージェントの場合は 'npx skills add JuliusBrussee/caveman' といった対応するコマンドを実行してください。インストールが完了したら、 '/caveman' コマンドを使用するか、単にエージェントに 'talk like caveman' と指示することでモードを起動できます。ネイティブフックをサポートしていないエージェントの場合は、提供されているシステムプロンプトのスニペットをエージェントのルールまたは設定ファイルに貼り付けることで、常時有効な機能を確保できます。