首页CLIGitlawb/openclaude
// archived 2026-04-23
51

// 项目简介

OpenClaude 是一个开源的编码代理 CLI,支持多种云端和本地模型提供商。它提供了一个以终端为先的统一工作流,具备文件管理、bash 执行和代理任务等工具。用户可以轻松集成包括 OpenAI、Ollama 和 Gemini 在内的各种后端,同时利用代理路由和 gRPC 支持等高级功能。

// 技术分析

OpenClaude 是一个开源的、以终端为先的编码代理,旨在为与各种云端和本地 AI 模型提供商交互提供统一的接口。通过抽象化不同 API 后端的复杂性,它使开发人员无论使用何种底层模型,都能保持包含工具、代理和 MCP 集成的一致工作流。该项目优先考虑灵活性和可扩展性,允许用户将特定任务路由到不同的模型以优化成本或性能,同时支持交互式 CLI 使用和无头 gRPC 服务集成。

// 核心亮点

01
支持广泛的后端,包括兼容 OpenAI 的 API、Gemini、GitHub Models、Ollama 和本地推理提供商。
02
提供了一套全面的编码工具,例如 bash 执行、文件操作、grep 和网络搜索功能。
03
具备高级代理路由功能,允许用户为规划或前端开发等不同任务类型分配特定模型。
04
包含一个无头 gRPC 服务器模式,能够将代理能力集成到自定义应用程序或 CI/CD 流水线中。
05
提供捆绑的 VS Code 扩展,直接在编辑器环境中提供启动集成和主题支持。
06
实现了一个灵活的提供商配置文件系统,允许用户轻松保存并在不同的模型配置之间切换。

// 典型使用场景

01
用于管理多个云端和本地 AI 模型提供商的统一 CLI 界面
02
使用文件工具、grep、bash 和代理任务执行的自动化编码工作流
03
用于将代理功能嵌入自定义应用程序的无头 gRPC 服务集成

// 快速开始

首先,使用 'npm install -g @gitlawb/openclaude' 全局安装该包。安装完成后,在终端运行 'openclaude' 命令,并使用 '/provider' 斜杠命令来配置您首选的模型后端。您也可以使用环境变量或 'ollama launch' 命令来更快速地设置本地模型。