// 概要
Recursive Language Models (RLMs) は、プログラムによる分解と再帰的な自己呼び出しを通じて、言語モデルがほぼ無限のコンテキストを処理できるようにするタスク非依存の推論パラダイムを提供します。このフレームワークは、標準的な補完呼び出しを RLM 固有のインターフェースに置き換え、コンテキストを REPL 環境にオフロードして対話的に実行します。本リポジトリは、複雑で多段階の言語モデル推論を促進するために、さまざまなローカルおよびクラウドベースのサンドボックス環境をサポートする拡張可能なエンジンを提供します。
// 技術解説
Recursive Language Models (RLMs) は、タスク非依存の推論パラダイムを導入し、タスクをプログラム的に分解して再帰的に自身を呼び出すことで、言語モデルがほぼ無限のコンテキストを扱えるようにします。コンテキストを REPL 環境内の変数として扱うことで、システムはモデルがサブの LM 呼び出しと対話して起動することを可能にし、複雑な推論プロセスを効果的にオフロードします。このアーキテクチャは拡張性とモジュール性を優先しており、ローカルでの実行速度と、コード実行のための分離されたクラウドベースのサンドボックスのセキュリティとの間でトレードオフを提供します。
// 主要ハイライト
// ユースケース
// クイックスタート
開始するには、'pip install rlms' を使用してパッケージをインストールします。次に、好みのバックエンドと環境を指定して RLM クライアントを初期化し、'rlm.completion' メソッドを使用してタスクを実行できます。高度な使用方法として、'RLMLogger' を設定して実行軌跡をディスクに保存し、提供されている Node.js ベースのビジュアライザーを使用してそれらを検査することが可能です。