LTX Video(LTX-2)をローカル環境で動かす手順を解説します。ComfyUI・Gradioどちらからでも操作できます。GPU環境の準備からモデルのダウンロード、実際の動画生成まで、ステップバイステップでまとめました。
LTX Video完全ガイドもあわせてご参照ください。
必要な環境と要件
LTX Videoをローカルで動かすには以下の環境が必要です。OS:Windows 10/11またはLinux(Ubuntu推奨)、GPU:NVIDIA RTX 3060以上(VRAM 8GB以上推奨)、Python:3.10以上、CUDA:12.1以上、ストレージ:モデルファイル用に20GB以上の空き容量が必要です。
インストール手順(ComfyUI経由)
Step 1: ComfyUIのインストール
まずComfyUIをGitHubからクローンし、必要なPythonパッケージをインストールします。ComfyUIManagerを使えば、LTX Videoの専用カスタムノードを簡単に追加できます。
Step 2: LTX Videoモデルのダウンロード
Hugging Faceから「Lightricks/LTX-Video」のモデルファイルをダウンロードします。主要ファイルは「ltx-video-2b-v0.9.safetensors」です(約5GB)。ComfyUIのmodels/videoディレクトリに配置します。
Step 3: ワークフローの読み込みと動画生成
ComfyUIを起動してLTX Video用ワークフローJSONを読み込みます。テキストプロンプトを入力してQueueボタンを押せば動画生成が開始します。私が試した際は、RTX 3090環境で24フレームの動画を約30秒で生成できました。
よくあるエラーと対処法
CUDA out of memory:解像度を下げるか、量子化モデル(ltx-video-2b-v0.9-Q8.safetensors)を使用。モデルが読み込まれない:ファイルパスを確認し、モデルディレクトリに正しく配置されているか確認。生成が途中で止まる:タイムアウト設定を延ばす、またはフレーム数を減らして再試行。
よくある質問(FAQ)
Q. CPU(GPUなし)でも動きますか?
A. 技術的には可能ですが、生成時間が数時間単位になるため実用的ではありません。
Q. WindowsとLinuxどちらが安定していますか?
A. Linuxの方が安定している傾向がありますが、Windowsでも問題なく動作する報告が多数あります。
Q. Docker環境での構築は可能ですか?
A. はい。NVIDIA Container Toolkitを使えばDocker環境でも動作します。
関連記事
\ この記事を読んだあなたにおすすめ /
🎁 AI動画ツール完全カタログ
PDF32ページ 無料プレゼント
Sora・Kling・Runway・Veo の最新活用法を32ページにまとめた
無料カタログ+AI診断アプリ付き

コメント