首页RustWeaveMindAI/weft
WeaveMindAI

weft

AIRustLLMProgramming LanguageWorkflow AutomationSvelte
近期趋势热门
总收藏数57
GitHub 上查看完整项目前往 GitHub

项目简介

Weft 是一种旨在将 LLM、人类交互和基础设施集成到统一可视化工作流中的编程语言。它具备持久化执行功能以确保程序在崩溃后仍能运行,并通过类型化的模块化节点系统支持复杂逻辑。开发者无需手动配置,即可通过连接原生节点来构建和管理复杂的智能体系统。

技术分析

Weft 是一种专为 AI 驱动系统设计的编程语言,旨在用统一的基于图的架构取代复杂的库管道。通过将 LLM、人类交互和基础设施视为一等原语,它允许开发人员连接复杂的工作流,同时编译器强制执行严格的类型安全和架构完整性。该项目利用 Restate 实现持久化执行,以确保跨崩溃的状态持久性,从而在诸如人机协作工作流等长时间运行的进程中优先考虑可靠性。

核心亮点

1
为人机协作工作流提供了一等支持,允许程序无缝暂停和恢复,无需手动管理状态。
2
具有递归可折叠设计,可以将复杂系统折叠为简单的、由接口定义的块,以提高可读性。
3
通过在代码执行前验证连接和架构的编译器,确保端到端的类型安全。
4
利用持久化执行来保证程序在崩溃和重启后依然存活,并在长时间任务中保持状态。
5
提供双视图渲染,允许开发人员在密集代码和可视化图表之间切换,同时保持两个视图完美同步。
6
包含各种用于 LLM、通信平台、数据库和 Web 服务的内置节点目录,以最大限度地减少外部依赖。

典型使用场景

1
编排 AI 智能体和 LLM 工作流
2
管理具有持久化状态的人机协作流程
3
利用原生数据库和 API 集成构建感知基础设施的应用程序

快速开始

首先,克隆存储库并通过复制 .env 文件并添加必要的 API 密钥来配置您的环境。使用提供的 dev.sh 脚本启动后端服务器和仪表板,然后导航至 http://localhost:5173 开始构建您的第一个项目。请查阅官方文档,获取有关该语言和仪表板功能的引导式演练。

相关项目
rtk
RTK 是一款高性能 CLI 代理,旨在通过过滤和压缩命令输出来显著降低 LLM 的 Token 消耗。它支持超过 100 种常用命令,并通过透明的 shell hooks 与各种 AI 编程工具无缝集成。通过去除冗余信息并汇总数据,它能帮助开发者以极低的开销优化 AI 交互体验。
memvid
Memvid是一个无需数据库的单文件内存层,旨在为AI智能体提供即时检索和长期记忆功能。它通过创新的“智能帧”设计,将数据、嵌入和索引封装在单个文件中,实现了高效的压缩与并行读取。该系统具有模型无关、基础设施零依赖的特点,支持在各种离线或在线场景中实现持久化记忆。
llmfit
llmfit 是一款基于终端的实用程序,用于分析您的系统硬件,以确定哪些大型语言模型可以在您的特定配置上有效运行。它提供交互式 TUI 和 CLI,根据质量、速度和内存适配度对模型进行评分,同时支持 Ollama、llama.cpp 和 MLX 等多种后端。用户还可以执行硬件模拟,以测试不同模型配置在目标系统规格上的表现。
litellm
LiteLLM 是一个开源 AI 网关,它提供了一个使用标准 OpenAI 格式调用 100 多种不同 LLM 提供商的统一接口。它可以作为 Python SDK 直接集成,也可以部署为代理服务器来管理负载均衡和支出跟踪等企业级功能。该平台通过消除处理特定于提供商的 SDK、身份验证模式和请求格式的需求,简化了 LLM 的管理。