ホームトレンドgoogle-research/timesfm
// archived 2026-04-15
google-research

timesfm

AI#Time Series#Forecasting#Foundation Model#PyTorch#JAX
GitHub で見る →
75

// 概要

TimesFM は Google Research が時系列予測タスク向けに開発した decoder-only の基盤モデルです。最新の 2.5 バージョンでは 200M パラメータのアーキテクチャを採用し、最大 16k のコンテキスト長と連続的な分位点予測をサポートしています。このリポジトリでは推論や LoRA を用いたファインチューニング、およびエージェントワークフローへの統合のための包括的なツールを提供しています。

// 技術解説

TimesFM は Google Research が開発した時系列予測専用の decoder-only foundation model です。大規模な事前学習済みアーキテクチャを活用することで、タスク固有の広範なトレーニングを必要とせずに多様な時系列データを扱える、堅牢で汎用的な予測モデルを構築するという課題に対処しています。このプロジェクトは、200M パラメータのモデルを提供することでパフォーマンスと効率のバランスをとっており、より長いコンテキスト長とオプションの quantile head をサポートすることで、エンタープライズレベルのアプリケーションとカスタム研究ワークフローの両方に適した汎用的なツールとなっています。

// 主要ハイライト

01
最大 16k までの拡張されたコンテキスト長をサポートしており、より長い過去の時系列データの分析が可能です。
02
200M パラメータのアーキテクチャを採用し、高い予測性能を維持しながら効率性を向上させています。
03
オプションの 30M パラメータの quantile head を含んでおり、最大 1k horizons までの連続的な quantile forecasting を実現します。
04
柔軟なバックエンドサポートを提供しており、ユーザーは PyTorch または Flax を選択して、さまざまなハードウェアで推論を最適化できます。
05
HuggingFace Transformers および PEFT (LoRA) との統合により、ドメイン固有の適応に向けた fine-tuning が可能です。
06
XReg を介した covariate サポートを組み込んでおり、予測プロセスにおいて外部変数を考慮できます。

// ユースケース

01
連続的な分位点出力をサポートした高性能な時系列予測
02
HuggingFace Transformers と PEFT (LoRA) を使用した基盤モデルのファインチューニング
03
BigQuery ML や Vertex AI を介したエージェントワークフローおよび企業向けアプリケーションへの統合

// クイックスタート

まず、リポジトリを clone し、uv を使用して仮想環境をセットアップします。torch、flax、または xreg のいずれかの好みのバックエンドを指定してパッケージを editable mode でインストールし、ハードウェアに対応する deep learning framework がインストールされていることを確認してください。その後、提供されている Python API を使用して事前学習済みモデルを読み込み、予測パラメータを設定することで、時系列データに対する予測を生成できます。