// 概要
WeKnora は、エンタープライズレベルのドキュメント理解、セマンティック検索、および自律的な推論のために設計されたオープンソースの LLM 駆動型フレームワークです。複雑なマルチステップタスクを実行する ReAct エージェントと、生のドキュメントを構造化された相互リンク型のナレッジベースに要約する Wiki モードを備えています。このプラットフォームは、マルチソースのデータ取り込み、多様な LLM 統合、および完全なデータ主権を保証する柔軟なデプロイオプションをサポートしています。
// 技術解説
WeKnora は、RAG、自律的な ReAct エージェント、および自動化された Wiki システムを通じて、エンタープライズドキュメントをクエリ可能な生きた資産へと変換するために設計されたオープンソースのモジュール式ナレッジフレームワークです。高度に拡張可能なアーキテクチャを提供することで、ユーザーは LLM、ベクトルデータベース、およびストレージバックエンドを入れ替えることができ、セルフホスト型のデプロイメントを通じて完全なデータ主権を維持します。このプロジェクトは、マルチソースのインジェストと複雑な推論タスクを調整することで断片化されたエンタープライズ情報の課題に対処し、継続的に進化する相互リンクされたナレッジベースを必要とするチームにとって堅牢なソリューションとなります。
// 主要ハイライト
// ユースケース
// クイックスタート
WeKnora の利用を開始するには、Docker を使用してローカルにデプロイするか、エンタープライズグレードのセットアップ向けに提供されている Helm charts を使用して Kubernetes 経由でデプロイできます。デプロイ後、Web UI にアクセスして好みの LLM プロバイダーを設定し、Notion や Feishu などのデータソースを接続して、ナレッジベースの構築を開始できます。より迅速に開始するには、クラウドホスト型のナレッジアシスタントサービスや、モバイルアクセス用の WeChat Mini Program を検討することも可能です。