ホームLLMPaddlePaddle/FastDeploy
// archived 2026-04-23
PaddlePaddle

FastDeploy

AI#LLM#Model Deployment#PaddlePaddle#Inference#Quantization
GitHub で見る →
3,681

// 概要

FastDeploy は PaddlePaddle をベースとした大規模言語モデルおよび視覚言語モデル向けの推論デプロイメントツールキットであり、すぐに利用可能なプロダクトグレードのデプロイソリューションを提供します。本ツールは多様な主要ハードウェアプラットフォームをサポートし、負荷分散された PD 分離、統合された KV cache 転送、および複数の高度な高速化技術を統合しています。開発者は OpenAI API 互換インターフェースを通じて迅速なデプロイを実現し、完全な量子化フォーマットサポートを活用して推論パフォーマンスを最適化できます。

// 技術解説

FastDeploy は、 PaddlePaddle エコシステムに基づいて構築された、 Large Language Models (LLMs) および Vision-Language Models (VLMs) 向けのプロダクショングレードの推論デプロイメントツールキットです。本プロジェクトは、負荷分散された PD disaggregation、統合された KV cache 転送、およびさまざまな高度な高速化技術を提供することで、マルチハードウェア環境全体でのモデルデプロイの複雑さに対処し、推論スループットとリソース利用率を大幅に向上させることを目的としています。その中心的な設計思想は、主要なエコシステムとの互換性 (vLLM インターフェースの互換性など) を維持し、国内および主要なハードウェアを幅広くサポートすることで、エンタープライズレベルのモデル実装における技術的な障壁を下げることにあります。

// 主要ハイライト

01
負荷分散された PD disaggregation をサポートし、動的なインスタンスロールの切り替えを通じてリソース利用率を最適化し、 SLO を保証します。
02
統合された KV cache 転送ライブラリを提供し、高性能な通信のために NVLink または RDMA のインテリジェントな選択をサポートします。
03
OpenAI API サービスおよび vLLM インターフェースと互換性があり、迅速なシングルコマンドデプロイメントとシームレスなエコシステム統合を実現します。
04
W8A16、 W4A8、 FP8 を含むさまざまな量子化フォーマットをサポートし、 VRAM 使用量を効果的に削減して推論速度を向上させます。
05
Speculative decoding、 Multi-Token Prediction (MTP)、 Chunked prefill などの高度な高速化技術を統合し、推論パフォーマンスを包括的に最適化します。
06
NVIDIA GPU、 Kunlunxin、 Hygon、 Enflame、 MetaX、 Intel Gaudi を含むさまざまなプラットフォームをカバーする幅広いハードウェア互換性を備えています。

// ユースケース

01
負荷分散された PD 分離と動的なインスタンスロール切り替え
02
OpenAI API インターフェースおよび vLLM エコシステムとの互換性
03
マルチハードウェアプラットフォーム向けの高性能推論と完全な量子化サポート

// クイックスタート

開発者は、ターゲットとするハードウェアプラットフォーム (NVIDIA GPU や Kunlunxin など) 向けに公式に提供されている詳細なインストールガイドを参照して環境を構成できます。インストール完了後、 「10-Minute Quick Deployment」 ドキュメントを読み、オンラインサービスまたはオフライン推論のサンプルコードを参照して、モデルのデプロイプロセスを迅速に開始することを推奨します。