44
// 概要
このリポジトリは、テキスト推論に対して恒久的な無料枠を提供する LLM API プロバイダーの厳選リストです。サービスを直接プロバイダーの API とサードパーティの推論プラットフォームに分類し、モデルの機能、コンテキストウィンドウ、レート制限を詳細に解説しています。このコレクションは、さまざまな大規模言語モデルへのコスト効率の高いアクセスを求める開発者にとって包括的なリソースとなります。
// 技術解説
このプロジェクトは、テキスト推論において永続的な無料枠を提供する Large Language Model (LLM) プロバイダーを網羅的にまとめたディレクトリです。アクセシビリティと開発者の利便性を重視し、API エンドポイント、レート制限、モデルの機能を統合することで、コストに敏感なプロジェクトの選定プロセスを簡素化します。サービスを直接のプロバイダー API とサードパーティの推論プラットフォームに分類することで、クレジットカードの登録なしで、モデルのパフォーマンス、リージョンの可用性、利用制限のトレードオフを比較検討できるよう支援します。
// 主要ハイライト
01
Cohere、Google、Mistral、Zhipu AI などの主要プロバイダーによる永続的な無料枠の LLM API を集約しています。
02
高速または多様なモデルへのアクセスのために、Groq、Cerebras、OpenRouter などのサードパーティ推論プラットフォームを含めています。
03
コンテキストウィンドウ、最大出力トークン、特定のレート制限など、各プロバイダーの詳細な技術仕様を提供します。
04
プロバイダー間で情報を標準化し、ほとんどのエンドポイントで OpenAI SDK との互換性があることを明記して統合の容易さを確保しています。
05
モデルをモダリティごとに分類し、さまざまなプラットフォームでテキスト、ビジョン、オーディオ、埋め込みタスクをサポートしています。
06
RPM、RPD、TPM などの技術的な指標の用語集を維持し、開発者が利用枠を理解できるようにしています。
// ユースケース
01
クレジットカードの登録なしで高性能な LLM にアクセスする
02
OpenAI SDK 互換のエンドポイントを通じて多様な AI モデルを統合する
03
複数の推論プロバイダー間でレート制限やモデル仕様を比較する
// クイックスタート
これらの API を使い始めるには、ディレクトリを参照して、モデルとレート制限の要件を満たすプロバイダーを選択してください。選択したサービスの提供リンクをクリックして登録し、API キーを生成します。キーを取得したら、アプリケーションを構成して指定された Base URL に向けるようにし、コードが OpenAI SDK またはプロバイダー固有の API 要件と互換性があることを確認してください。