ホームLLMgoogle-ai-edge/LiteRT-LM
// archived 2026-04-09
google-ai-edge

LiteRT-LM

GitHub で見る →
95

// 概要

LiteRT-LM は、Google が開発したエッジデバイス上で Large Language Models をデプロイするための高性能かつ実用的な推論フレームワークです。Android、iOS、デスクトップ、IoT を含む幅広いプラットフォームをサポートし、GPU や NPU のハードウェアアクセラレーションを活用して最適なパフォーマンスを実現します。本フレームワークはマルチモーダルや function calling といった高度な機能を可能にし、様々な Google 製品におけるオンデバイス AI 体験を支えています。

// 技術解説

LiteRT-LM は、Google が設計した本番環境対応の高性能推論フレームワークであり、Large Language Models をエッジデバイス上で直接デプロイできるようにします。リソースが制限されたハードウェアと高度な AI 機能の間のギャップを埋めることで、ブラウザ、ウェアラブル、IoT デバイスといった環境で GenAI をローカル実行するという課題を解決します。このフレームワークはハードウェアアクセラレーションとクロスプラットフォーム互換性を優先しており、アプリケーションに agentic workflows やマルチモーダル機能を統合しようとする開発者にとって堅牢なソリューションとなります。

// 主要ハイライト

01
広範なクロスプラットフォームサポートを提供し、Android、iOS、Web、Desktop、および IoT デバイスへのデプロイを可能にします。
02
専用の GPU および NPU ハードウェアアクセラレーションを活用して、推論パフォーマンスを最適化します。
03
マルチモーダル入力をサポートし、モデルが視覚データと音声データの両方を処理できるようにします。
04
組み込みの function calling 機能を通じて、agentic workflows を実現します。
05
Gemma、Llama、Phi-4、および Qwen アーキテクチャのサポートを含む、幅広いモデル互換性を提供します。

// ユースケース

01
Gemma、Llama、Phi-4 などの LLM をモバイル、デスクトップ、IoT デバイスへクロスプラットフォームでデプロイ。
02
GPU や NPU を使用したハードウェアアクセラレーションによる推論で、エッジハードウェアにおけるピークパフォーマンスを実現。
03
組み込みの function calling や vision/audio サポートを通じた、エージェント型ワークフローおよびマルチモーダルアプリケーションの実装。

// クイックスタート

開始するには、'uv tool install litert-lm' を使用して LiteRT-LM CLI ツールをインストールし、コマンドラインから Hugging Face リポジトリのモデルをすぐに実行できます。アプリケーション開発については、Kotlin、Python、または C++ 向けの安定した言語別ガイドを確認し、ネイティブプロジェクトにフレームワークを統合してください。