首页LLM1jehuang/jcode
36

// 项目简介

jcode 是一款专为多会话工作流和极致资源效率而设计的高性能编程 Agent 框架。它配备了先进的内存系统,利用语义向量嵌入来检索相关信息,从而避免了过多的 token 消耗。该平台通过集群架构支持原生的 Agent 协作,并可通过 OAuth 或自定义配置与多种 LLM 提供商集成。

// 技术分析

jcode 是一个高性能编码代理工具,旨在促进多会话工作流,并专注于极高的资源效率和低延迟。通过实现自定义终端和优化的渲染管道,它解决了现有基于 CLI 的 AI 工具中常见的性能瓶颈,从而允许在单个存储库内进行可扩展的多代理协作。该项目优先考虑使用语义向量嵌入和侧代理架构的人类记忆系统,使代理能够自主回忆相关上下文,而无需过多的 token 消耗。

// 核心亮点

01
与行业标准的 CLI 编码代理相比,实现了显著更低的 RAM 使用率和更快的响应时间。
02
具有复杂的记忆系统,使用语义向量嵌入和侧代理来提供具有上下文感知能力、类似人类的回忆功能。
03
支持“Swarm”架构,多个代理可以协作、通信并自主解决文件编辑冲突。
04
包含高性能侧面板和自定义 mermaid 渲染库,其运行速度比标准实现快 1800 倍。
05
提供广泛的提供商支持,包括针对主要 AI 服务的原生 OAuth 流程,以及与自托管或兼容 OpenAI 的端点的兼容性。
06
利用自定义终端实现 Handterm,以克服原生回滚限制并确保流畅、无闪烁的 UI 渲染。

// 典型使用场景

01
具备自动冲突解决和集群协作功能的多会话 Agent 工作流
02
用于长期上下文保留的资源高效型语义内存管理
03
广泛的提供商支持,包括 Claude、OpenAI、GitHub Copilot 以及通过 Ollama 或 vLLM 运行的本地 LLM

// 快速开始

要开始使用 jcode,请通过在终端中运行提供的 curl 命令在 macOS 或 Linux 上安装该工具。安装完成后,使用 'jcode login --provider <name>' 命令向您首选的 AI 提供商进行身份验证,或通过 'jcode provider add' 命令配置自托管端点。然后,您可以运行 'jcode run' 来启动您的第一个编码会话,从而开始与代理进行交互。