// 概要
LiteLLM は、100 以上の LLM プロバイダーと一貫した OpenAI 互換フォーマットで対話するための統合インターフェースを提供します。開発者は Python SDK として直接統合したり、本番環境向けのプロキシサーバーとしてデプロイしたりできます。このプラットフォームは、ロードバランシング、支出追跡、仮想キーなどの機能を提供することで LLM 管理を簡素化します。
// 技術解説
LiteLLM は、100 以上の LLM プロバイダーの統合を簡素化するために設計されたオープンソースの AI gateway であり、統一された OpenAI 互換インターフェースを提供します。プロバイダー固有の SDK、認証パターン、リクエスト形式の複雑さを抽象化することで、開発者はコードベースを書き直すことなく、モデル間をシームレスに切り替えることが可能です。このプロジェクトは、直接的なアプリケーション統合のための Python SDK と、spend tracking、load balancing、guardrails といったエンタープライズ機能を含む本番環境対応の proxy server の両方を提供し、現代の LLM 開発に内在する断片化の問題を効果的に解決します。
// 主要ハイライト
// ユースケース
// クイックスタート
Python SDK を使用するには、'uv add litellm' でインストールし、プロバイダーのプレフィックスを指定して 'completion' 関数でモデルを呼び出します。AI Gateway の場合は、'uv tool install litellm[proxy]' でプロキシをインストールし、'litellm --model <model_name>' で起動します。起動後は、base_url をローカルインスタンスに向けることで、標準の OpenAI client libraries を使用して proxy server と対話できます。