ホームLLMbaidu/vLLM-Kunlun
baidu

vLLM-Kunlun

AI#vLLM#LLM#PyTorch#Kunlun XPU#Deep Learning
GitHub で見る →
405

// 概要

vLLM Kunlun は、Kunlun XPU ハードウェア上で vLLM をシームレスに実行可能にするコミュニティ主導のハードウェアプラグインです。ハードウェアプラグイン可能なインターフェースを活用して統合プロセスを分離し、幅広いオープンソースモデルとの互換性を確保しています。本プロジェクトは、Kunlun3 P800 プラットフォーム上で Transformer ベース、Mixture-of-Expert、マルチモーダル LLM を含む多様なアーキテクチャをサポートします。

// 技術解説

vLLM Kunlun は、ハードウェアプラグイン可能なインターフェースを活用して Kunlun XPU バックエンドを vLLM エコシステムに統合するために設計された、コミュニティ管理のハードウェアプラグインです。このアーキテクチャはハードウェア固有のロジックをコアの vLLM フレームワークから効果的に分離し、Kunlun3 P800 ハードウェア上でさまざまな LLM アーキテクチャをシームレスに実行可能にします。vLLM のハードウェアプラグイン可能な RFC に準拠することで、このプロジェクトは保守性と拡張性を確保し、ユーザーは基盤となる vLLM コードベースを変更することなく Qwen、Llama、DeepSeek といった一般的なモデルを実行できます。

// 主要ハイライト

01
Kunlun XPU デバイスの vLLM サポートを可能にする専用のハードウェアプラグイン可能なインターフェースを提供します。
02
Transformer ベース、Mixture-of-Expert、Embedding、マルチモーダル LLM を含む幅広いモデルアーキテクチャをサポートします。
03
サポートされている特定のモデルファミリーに対して、LoRA ファインチューニングやモデル量子化といった高度な機能を有効にします。
04
Kunlun3 P800 上でのパフォーマンスと実行効率を向上させるために、Piecewise Kunlun Graph 最適化を実装しています。
05
公式の vLLM プロジェクトとの互換性を維持し、ユーザーが Kunlun ハードウェア上で最新の vLLM 機能を利用できるようにします。
06
最適化されたバックエンド統合を通じて、大規模モデルに対する高性能な推論を促進します。

// ユースケース

01
Kunlun XPU 上での Transformer 系、MoE、およびマルチモーダル LLM の実行
02
サポート対象モデルに対する LoRA ファインチューニングと量子化の有効化
03
プラグイン可能なインターフェースを介した vLLM への Kunlun ハードウェアバックエンドの統合

// クイックスタート

vLLM Kunlun の利用を開始するには、Ubuntu 20.04、Python 3.10+、PyTorch 2.5.1+ を含む前提条件を環境が満たしていることを確認してください。使用する vLLM バージョンに一致する vLLM Kunlun プラグインをインストールし、詳細なセットアップ手順についてはプロジェクトの readthedocs で提供されている公式の Quick Start および Installation ドキュメントを参照してください。