Omi 是一个开源平台,通过捕获桌面、移动和可穿戴设备上的屏幕活动与对话,充当用户的第二大脑。它提供实时转录、自动摘要以及 AI 驱动的聊天界面,帮助用户回忆曾经看到或听到的信息。该系统支持广泛的硬件集成和开发工具,旨在促进自定义应用程序的构建。
Omi 是一个开源 AI 平台,旨在通过捕获、转录和总结桌面、移动和可穿戴设备上的屏幕活动及实时对话,充当用户的“第二大脑”。其架构采用多平台方案,结合了用于桌面的 Swift/Rust、用于移动端的 Flutter,以及基于 Python 的 FastAPI 后端,通过先进的 AI 流水线处理音频和视觉数据。通过将硬件可穿戴设备与基于云的转录和 LLM 服务相结合,该项目解决了专业人士在信息留存和上下文管理方面的问题,并优先考虑支持自定义应用开发和硬件集成的模块化设计。
若要开始使用,您可以直接从提供的链接下载预构建的 macOS 应用或移动应用程序。对于开发者,您可以克隆存储库并使用提供的 shell 脚本运行桌面应用程序,或者按照完整的安装指南,使用 Rust 和 Python 的先决条件来设置本地后端堆栈。