ホームLLMalexzhang13/rlm
// archived 2026-04-27
44

// 概要

Recursive Language Models (RLMs) は、プログラムによる分解と再帰的な自己呼び出しを通じて、言語モデルがほぼ無限のコンテキストを処理できるようにするタスク非依存の推論パラダイムを提供します。このフレームワークは、標準的な補完呼び出しを RLM 固有のインターフェースに置き換え、コンテキストを REPL 環境にオフロードして対話的に実行します。本リポジトリは、複雑で多段階の言語モデル推論を促進するために、さまざまなローカルおよびクラウドベースのサンドボックス環境をサポートする拡張可能なエンジンを提供します。

// 技術解説

Recursive Language Models (RLMs) は、タスク非依存の推論パラダイムを導入し、タスクをプログラム的に分解して再帰的に自身を呼び出すことで、言語モデルがほぼ無限のコンテキストを扱えるようにします。コンテキストを REPL 環境内の変数として扱うことで、システムはモデルがサブの LM 呼び出しと対話して起動することを可能にし、複雑な推論プロセスを効果的にオフロードします。このアーキテクチャは拡張性とモジュール性を優先しており、ローカルでの実行速度と、コード実行のための分離されたクラウドベースのサンドボックスのセキュリティとの間でトレードオフを提供します。

// 主要ハイライト

01
モデルが入力タスクを再帰的に分解および処理できるようにすることで、ほぼ無限のコンテキスト処理を実現します。
02
標準的な LLM の補完呼び出しをプログラム可能なインターフェースに置き換える、柔軟な REPL ベースの推論エンジンを提供します。
03
安全なコード実行のために、ローカル、Docker、および Modal や E2B といったクラウドベースのサンドボックスを含む複数の実行環境をサポートします。
04
複雑な実行軌跡、サブの LM 呼び出し、およびコード生成を検査するための組み込みのロギングおよび可視化ツールが含まれています。
05
OpenAI や Anthropic などの主要なモデルプロバイダーとの互換性を維持しつつ、vLLM を介したローカルモデルもサポートします。
06
低リスクのタスク向けの非分離ローカル実行と、コード生成時のセキュリティリスクを軽減するための完全に分離されたサンドボックスの両方を提供します。

// ユースケース

01
プログラムによる分解を通じたほぼ無限の長さのコンテキストの処理
02
分離されたクラウドベースのサンドボックス内での再帰的なサブ LM 呼び出しの実行
03
統合されたログ記録および検査ツールを通じた複雑なモデル推論軌跡の可視化

// クイックスタート

開始するには、'pip install rlms' を使用してパッケージをインストールします。次に、好みのバックエンドと環境を指定して RLM クライアントを初期化し、'rlm.completion' メソッドを使用してタスクを実行できます。高度な使用方法として、'RLMLogger' を設定して実行軌跡をディスクに保存し、提供されている Node.js ベースのビジュアライザーを使用してそれらを検査することが可能です。