83
// 项目简介
Claude Code Local 提供了一套高性能 AI 模型,可完全在 Apple Silicon 硬件上运行,无需连接云端。该项目具备原生 MLX 服务器,支持在本地执行 Claude Code、浏览器自动化及语音交互,同时确保数据完全隐私。通过消除出站网络调用和遥测,它为处理敏感专业任务提供了一个安全的离线环境。
// 技术分析
Claude Code Local 是一个以隐私为中心、优先本地化的环境计算堆栈,旨在完全在 Apple Silicon 硬件上运行强大的 AI 模型,无需任何云依赖。通过利用 MLX 框架和原生 Apple GPU 加速,它通过确保零出站网络流量,为处理法律或财务文档等敏感数据提供了安全的环境。该项目通过实现一个基于 Python 的自定义 MLX 服务器来解决本地模型的局限性(特别是工具调用可靠性和性能问题),该服务器优化了模型推理并恢复了乱码的工具输出,有效地弥合了本地执行与企业级 AI 编码工具之间的差距。
// 核心亮点
01
支持在 Apple Silicon 上进行 100% 本地 AI 执行,确保敏感代码和数据永远不会离开用户的机器。
02
支持一系列高性能模型,包括 Gemma 4 31B、Llama 3.3 70B 和 Qwen 3.5 122B,针对不同的硬件限制进行了优化。
03
具有自定义 MLX 服务器,可实现高吞吐量,在特定模型配置下每秒可达到高达 65 个 token。
04
包含强大的工具调用恢复机制,可修复本地模型输出中常见的格式错误,以防止自动化任务期间出现无限循环。
05
提供四种不同的操作模式,包括自主浏览器控制、免提语音交互和 iMessage 集成,以实现完整的本地优先工作流程。
06
通过消除遥测和回传行为来保持严格的隐私,允许在高安全性环境中进行物理隔离操作。
// 典型使用场景
01
使用 Gemma、Llama 或 Qwen 模型在本地运行 Claude Code,实现私有且无需订阅的开发体验。
02
通过 Chrome DevTools 执行自主浏览器代理,进行本地网页导航与交互。
03
利用设备端语音转文字和语音克隆功能,实现免提语音控制。
// 快速开始
首先,请确保您使用的是配备 Apple Silicon 且具有足够 RAM 的 Mac,以运行您选择的模型。通过导航到 'launchers/' 目录来探索该项目,查找适用于不同模式的可双击命令文件,或者使用提供的脚本以您首选的模型配置启动 MLX 服务器。