ホームLLMBerriAI/litellm
BerriAI

litellm

AI#LLM#Gateway#Proxy#API#Python
GitHub で見る →
45,389

// 概要

LiteLLM は、100 以上の LLM プロバイダーと一貫した OpenAI 互換フォーマットで対話するための統合インターフェースを提供します。開発者は Python SDK として直接統合したり、本番環境向けのプロキシサーバーとしてデプロイしたりできます。このプラットフォームは、ロードバランシング、支出追跡、仮想キーなどの機能を提供することで LLM 管理を簡素化します。

// 技術解説

LiteLLM は、100 以上の LLM プロバイダーの統合を簡素化するために設計されたオープンソースの AI gateway であり、統一された OpenAI 互換インターフェースを提供します。プロバイダー固有の SDK、認証パターン、リクエスト形式の複雑さを抽象化することで、開発者はコードベースを書き直すことなく、モデル間をシームレスに切り替えることが可能です。このプロジェクトは、直接的なアプリケーション統合のための Python SDK と、spend tracking、load balancing、guardrails といったエンタープライズ機能を含む本番環境対応の proxy server の両方を提供し、現代の LLM 開発に内在する断片化の問題を効果的に解決します。

// 主要ハイライト

01
100 以上の LLM プロバイダーを、一貫した OpenAI 互換形式で呼び出せる統一 API を提供します。
02
virtual keys、spend tracking、load balancing などの機能を内蔵した、本番環境対応の AI Gateway (Proxy Server) を提供します。
03
A2A (Agent-to-Agent) プロトコルを通じて高度な agentic workflows をサポートし、様々なエージェントフレームワークとの対話を可能にします。
04
外部ツールやサーバーをサポート対象のあらゆる LLM に接続するための MCP (Model Context Protocol) bridge および gateway を含みます。
05
1 秒あたり 1k リクエストで P95 latency 8ms という高性能なルーティングを実現します。
06
シームレスなモデルの入れ替えを可能にし、チームは既存のアプリケーションロジックを変更することなく LLM プロバイダーを変更できます。

// ユースケース

01
100 以上の LLM プロバイダー向けの統合 API
02
ロードバランシングとガードレールを備えた本番環境向け AI Gateway
03
MCP ツールおよび A2A エージェントとのシームレスな統合

// クイックスタート

Python SDK を使用するには、'uv add litellm' でインストールし、プロバイダーのプレフィックスを指定して 'completion' 関数でモデルを呼び出します。AI Gateway の場合は、'uv tool install litellm[proxy]' でプロキシをインストールし、'litellm --model <model_name>' で起動します。起動後は、base_url をローカルインスタンスに向けることで、標準の OpenAI client libraries を使用して proxy server と対話できます。