ホームRAGTencent/WeKnora
// archived 2026-04-23
Tencent

WeKnora

AI#RAG#LLM#Agents#Knowledge Graph#Vector Database
GitHub で見る →
14,104

// 概要

WeKnora は、エンタープライズレベルのドキュメント理解、セマンティック検索、および自律的な推論のために設計されたオープンソースの LLM 駆動型フレームワークです。複雑なマルチステップタスクを実行する ReAct エージェントと、生のドキュメントを構造化された相互リンク型のナレッジベースに要約する Wiki モードを備えています。このプラットフォームは、マルチソースのデータ取り込み、多様な LLM 統合、および完全なデータ主権を保証する柔軟なデプロイオプションをサポートしています。

// 技術解説

WeKnora は、RAG、自律的な ReAct エージェント、および自動化された Wiki システムを通じて、エンタープライズドキュメントをクエリ可能な生きた資産へと変換するために設計されたオープンソースのモジュール式ナレッジフレームワークです。高度に拡張可能なアーキテクチャを提供することで、ユーザーは LLM、ベクトルデータベース、およびストレージバックエンドを入れ替えることができ、セルフホスト型のデプロイメントを通じて完全なデータ主権を維持します。このプロジェクトは、マルチソースのインジェストと複雑な推論タスクを調整することで断片化されたエンタープライズ情報の課題に対処し、継続的に進化する相互リンクされたナレッジベースを必要とするチームにとって堅牢なソリューションとなります。

// 主要ハイライト

01
Wiki Mode は、生のドキュメントを構造化された相互リンクされた markdown ページに自動的に抽出し、情報発見を向上させるためのインタラクティブなナレッジグラフを提供します。
02
ReAct Agent の機能により、検索、Web 検索、および MCP ツールを調整して複雑なクエリを解決する自律的なマルチステップ推論が可能になります。
03
包括的なデータソース統合により、Feishu、Notion、Yuque などのプラットフォームからの自動同期をサポートし、ナレッジベースを常に最新の状態に保ちます。
04
20 以上の LLM プロバイダーおよび複数のベクトルデータベースバックエンドとの広範な互換性により、柔軟でベンダーニュートラルなインフラストラクチャのデプロイメントが可能です。
05
統合された Langfuse の可観測性により、エージェントの推論、トークン使用量、およびパイプラインのトレーシングに対する深い可視性を提供し、パフォーマンス監視を支援します。
06
マルチチャネルの IM サポートにより、Slack、Telegram、WeCom、および Feishu などのプラットフォームを通じて、ナレッジフレームワークと直接やり取りできます。

// ユースケース

01
エンタープライズドキュメント向けの RAG ベースのインテリジェントな Q&A
02
マルチステップの推論とツールオーケストレーションのための自律的な ReAct エージェント
03
生のドキュメントからの自動 Wiki 生成およびナレッジグラフの可視化

// クイックスタート

WeKnora の利用を開始するには、Docker を使用してローカルにデプロイするか、エンタープライズグレードのセットアップ向けに提供されている Helm charts を使用して Kubernetes 経由でデプロイできます。デプロイ後、Web UI にアクセスして好みの LLM プロバイダーを設定し、Notion や Feishu などのデータソースを接続して、ナレッジベースの構築を開始できます。より迅速に開始するには、クラウドホスト型のナレッジアシスタントサービスや、モバイルアクセス用の WeChat Mini Program を検討することも可能です。