首页主题Rust
Topic

Rust

90 天热度
15
历史累计
15

近 4 周新增

本周 TOP 10

1
tabby
Tabby 是一款自托管、开源的 AI 编程助手,旨在作为 GitHub Copilot 的本地部署替代方案。它作为一个独立的系统运行,无需外部云服务或复杂的数据库管理。该平台支持消费级 GPU,并提供 OpenAPI 接口,以便与现有的开发基础设施无缝集成。
88
2
weft
Weft 是一种旨在将 LLM、人类交互和基础设施集成到统一可视化工作流中的编程语言。它具备持久化执行功能以确保程序在崩溃后仍能运行,并通过类型化的模块化节点系统支持复杂逻辑。开发者无需手动配置,即可通过连接原生节点来构建和管理复杂的智能体系统。
78
3
rtk
RTK 是一款高性能 CLI 代理,旨在通过过滤和压缩命令输出来显著降低 LLM 的 Token 消耗。它支持超过 100 种常用命令,并通过透明的 shell hooks 与各种 AI 编程工具无缝集成。通过去除冗余信息并汇总数据,它能帮助开发者以极低的开销优化 AI 交互体验。
78
4
voicebox
Voicebox 是一个全面的开源语音合成工作室,允许用户在自己的机器上本地克隆声音并生成语音。它支持五种不同的 TTS 引擎和 23 种语言,并包含一个用于创建复杂音频叙事的多轨时间轴编辑器。该平台还具有先进的后期处理效果和用于无缝集成到外部应用程序的 REST API。
78
5
magika
Magika 是一款利用深度学习提供高精度文件类型识别的 AI 工具,适用于二进制和文本格式。它配备了一个高度优化的模型,能够在单核 CPU 上以毫秒级速度进行推理,并保持约 99% 的准确率。该项目提供了通用的命令行界面和语言绑定,非常适合大规模的安全和内容策略扫描。
78
6
rhwp
rhwp 是一个基于 Rust 和 WebAssembly 的开源项目,旨在为 HWP 和 HWPX 文档格式提供免费且无需安装的查看与编辑功能。它通过实现跨平台通用访问和 AI 驱动的工作流,致力于打破专有格式带来的壁垒。该项目遵循结构化的路线图,在保持高质量人工开发标准的同时,力求实现与 Hancom Office 的功能完全对等。
78
7
fff.nvim
fff.nvim 是一款专为 Neovim 用户和 AI Agent 设计的、具有独特理念的高性能模糊文件选择器。它具备先进的搜索功能,包括 grep、glob 匹配以及带有内置记忆功能的抗拼写错误模糊匹配,从而提升搜索结果的准确性。该工具与 git 无缝集成,并提供跨模式建议,确保开发者能够快速找到所需文件。
78
8
monoio
Monoio 是一个 Thread-Per-Core 的 Rust 异步运行时,利用 io_uring、epoll 和 kqueue 实现高效的 I/O 操作。通过避免 work-stealing,它消除了任务实现 Send 或 Sync 的需求,从而允许安全且高效地使用线程本地存储。该架构专门针对以最大化吞吐量为主要目标的 I/O 密集型服务器应用程序进行了优化。
76
9
g3
G3 Project 提供了一套面向企业的工具集,用于构建通用代理解决方案,包括正向代理、负载均衡和 NAT 穿透。它由多个专用应用程序组成,例如用于流量管理的 g3proxy、用于基准测试的 g3bench,以及各种证书和 IP 查询工具。该项目使用异步 Rust 构建,以确保在多个操作系统上的高性能和可靠性,其中 Linux 是主要支持的平台。
52
10
quip-node-manager
Quip Node Manager 是一款专为在 macOS、Linux 和 Windows 上运行及监控 Quip 网络节点而设计的桌面应用程序。它支持 Docker 和原生执行模式,并提供全面的预检清单以确保系统配置正确。该应用程序还具备实时日志流、GPU 管理和自动后台更新功能,以保持节点的最佳性能。
38

历史精选 (15)

tabby
Tabby 是一款自托管、开源的 AI 编程助手,旨在作为 GitHub Copilot 的本地部署替代方案。它作为一个独立的系统运行,无需外部云服务或复杂的数据库管理。该平台支持消费级 GPU,并提供 OpenAPI 接口,以便与现有的开发基础设施无缝集成。
88
weft
Weft 是一种旨在将 LLM、人类交互和基础设施集成到统一可视化工作流中的编程语言。它具备持久化执行功能以确保程序在崩溃后仍能运行,并通过类型化的模块化节点系统支持复杂逻辑。开发者无需手动配置,即可通过连接原生节点来构建和管理复杂的智能体系统。
78
rtk
RTK 是一款高性能 CLI 代理,旨在通过过滤和压缩命令输出来显著降低 LLM 的 Token 消耗。它支持超过 100 种常用命令,并通过透明的 shell hooks 与各种 AI 编程工具无缝集成。通过去除冗余信息并汇总数据,它能帮助开发者以极低的开销优化 AI 交互体验。
78
voicebox
Voicebox 是一个全面的开源语音合成工作室,允许用户在自己的机器上本地克隆声音并生成语音。它支持五种不同的 TTS 引擎和 23 种语言,并包含一个用于创建复杂音频叙事的多轨时间轴编辑器。该平台还具有先进的后期处理效果和用于无缝集成到外部应用程序的 REST API。
78
magika
Magika 是一款利用深度学习提供高精度文件类型识别的 AI 工具,适用于二进制和文本格式。它配备了一个高度优化的模型,能够在单核 CPU 上以毫秒级速度进行推理,并保持约 99% 的准确率。该项目提供了通用的命令行界面和语言绑定,非常适合大规模的安全和内容策略扫描。
78
rhwp
rhwp 是一个基于 Rust 和 WebAssembly 的开源项目,旨在为 HWP 和 HWPX 文档格式提供免费且无需安装的查看与编辑功能。它通过实现跨平台通用访问和 AI 驱动的工作流,致力于打破专有格式带来的壁垒。该项目遵循结构化的路线图,在保持高质量人工开发标准的同时,力求实现与 Hancom Office 的功能完全对等。
78
fff.nvim
fff.nvim 是一款专为 Neovim 用户和 AI Agent 设计的、具有独特理念的高性能模糊文件选择器。它具备先进的搜索功能,包括 grep、glob 匹配以及带有内置记忆功能的抗拼写错误模糊匹配,从而提升搜索结果的准确性。该工具与 git 无缝集成,并提供跨模式建议,确保开发者能够快速找到所需文件。
78
monoio
Monoio 是一个 Thread-Per-Core 的 Rust 异步运行时,利用 io_uring、epoll 和 kqueue 实现高效的 I/O 操作。通过避免 work-stealing,它消除了任务实现 Send 或 Sync 的需求,从而允许安全且高效地使用线程本地存储。该架构专门针对以最大化吞吐量为主要目标的 I/O 密集型服务器应用程序进行了优化。
76
g3
G3 项目提供了一套基于异步 Rust 构建的面向企业的网络工具,旨在实现高性能和高可靠性。它包含一个多功能的正向代理、一个兼容 StatsD 的聚合器,以及各种用于基准测试和证书管理的实用程序。该项目主要针对 Linux 环境设计,并支持包括 HTTP、SOCKS5 和 TLS 在内的多种协议。
54
g3
G3 Project 提供了一套面向企业的工具集,用于构建通用代理解决方案,包括正向代理、负载均衡和 NAT 穿透。它由多个专用应用程序组成,例如用于流量管理的 g3proxy、用于基准测试的 g3bench,以及各种证书和 IP 查询工具。该项目使用异步 Rust 构建,以确保在多个操作系统上的高性能和可靠性,其中 Linux 是主要支持的平台。
52
memvid
Memvid是一个无需数据库的单文件内存层,旨在为AI智能体提供即时检索和长期记忆功能。它通过创新的“智能帧”设计,将数据、嵌入和索引封装在单个文件中,实现了高效的压缩与并行读取。该系统具有模型无关、基础设施零依赖的特点,支持在各种离线或在线场景中实现持久化记忆。
42
quip-node-manager
Quip Node Manager 是一款专为在 macOS、Linux 和 Windows 上运行及监控 Quip 网络节点而设计的桌面应用程序。它支持 Docker 和原生执行模式,并提供全面的预检清单以确保系统配置正确。该应用程序还具备实时日志流、GPU 管理和自动后台更新功能,以保持节点的最佳性能。
38
agent-browser
agent-browser 是一个基于 Rust 构建的高性能浏览器自动化命令行工具,专为 AI 代理设计。它支持通过简单的命令进行网页交互、元素定位和状态管理,无需复杂的 Playwright 或 Node.js 环境。该工具提供了丰富的会话持久化、身份验证管理及调试功能,以确保 AI 代理能够安全且高效地运行。
38
llmfit
llmfit 是一款基于终端的实用程序,用于分析您的系统硬件,以确定哪些大型语言模型可以在您的特定配置上有效运行。它提供交互式 TUI 和 CLI,根据质量、速度和内存适配度对模型进行评分,同时支持 Ollama、llama.cpp 和 MLX 等多种后端。用户还可以执行硬件模拟,以测试不同模型配置在目标系统规格上的表现。
35
goose
Goose 是一个通用 AI Agent,旨在您的本地机器上运行,用于处理从编码和研究到自动化和数据分析等各种任务。它使用 Rust 构建,以确保通过桌面、CLI 和 API 接口在 macOS、Linux 和 Windows 上实现高性能和可移植性。该项目支持超过 15 个 AI 提供商,并通过 Model Context Protocol 集成了 70 多个扩展。
28