ホームLLM1jehuang/jcode
36

// 概要

jcode は、マルチセッションのワークフローと極めて高いリソース効率を実現するために設計された高性能なコーディングエージェントハーネスです。セマンティックなベクトル埋め込みを活用した高度なメモリシステムを搭載しており、過度なトークン消費を抑えつつ関連情報を正確に呼び出せます。本プラットフォームは swarm アーキテクチャによるネイティブなエージェント連携をサポートし、OAuth やカスタム設定を通じて幅広い LLM プロバイダーと統合可能です。

// 技術解説

jcode は、極めて高いリソース効率と低レイテンシに重点を置き、マルチセッションのワークフローを促進するために設計された高性能なコーディングエージェントハーネスです。カスタムターミナルと最適化されたレンダリングパイプラインを実装することで、既存の CLI ベースの AI ツールに共通するパフォーマンスのボトルネックを解消し、単一のリポジトリ内でのスケーラブルなマルチエージェント連携を可能にします。このプロジェクトは、セマンティックベクトル埋め込みとサイドエージェントアーキテクチャを用いた人間のようなメモリシステムを優先しており、過度なトークン消費なしにエージェントが関連するコンテキストを自律的に想起できるようにしています。

// 主要ハイライト

01
業界標準の CLI コーディングエージェントと比較して、大幅な RAM 使用量の削減と応答時間の高速化を実現しています。
02
セマンティックベクトル埋め込みとサイドエージェントを使用して、コンテキストを認識した人間のような想起を提供する洗練されたメモリシステムを搭載しています。
03
複数のエージェントが連携・通信し、ファイル編集の競合を自律的に解決できる「Swarm」アーキテクチャをサポートしています。
04
標準的な実装よりも 1800 倍高速に動作する高性能なサイドパネルとカスタム mermaid レンダリングライブラリが含まれています。
05
主要な AI サービス向けのネイティブ OAuth フローや、セルフホスト型または OpenAI 互換エンドポイントとの互換性など、広範なプロバイダーサポートを提供しています。
06
カスタムターミナル実装である Handterm を利用することで、ネイティブのスクロールバック制限を克服し、スムーズでちらつきのない UI レンダリングを保証しています。

// ユースケース

01
自動競合解決と swarm 連携を備えたマルチセッションのエージェントワークフロー
02
長期的なコンテキスト保持のためのリソース効率に優れたセマンティックメモリ管理
03
Claude、OpenAI、GitHub Copilot、および Ollama や vLLM を介したローカル LLM を含む広範なプロバイダーサポート

// クイックスタート

jcode の利用を開始するには、提供されている curl コマンドをターミナルで実行して、macOS または Linux にツールをインストールしてください。インストールが完了したら、「jcode login --provider <name>」コマンドを使用して好みの AI プロバイダーで認証を行うか、「jcode provider add」コマンドでセルフホスト型エンドポイントを設定します。その後、「jcode run」を実行して最初のコーディングセッションを開始し、エージェントとの対話を開始できます。