Wan2.1をローカル環境で動かすための完全ガイドです。T2V-14B(高品質)とT2V-1.3B(軽量)の両モデルのインストール方法から動画生成手順まで解説します。
実際にローカル環境を構築してみると、クラウドAPIと比べて生成コストを大幅に削減でき、大量の動画制作ワークフローに組み込むのに最適でした。
動作環境と必要スペック
| モデル | GPU VRAM | 推奨GPU | ストレージ |
|---|---|---|---|
| T2V-14B | 24GB以上 | RTX 4090 / A100 | 50GB+ |
| T2V-1.3B | 8GB以上 | RTX 3080 / 4070 | 10GB+ |
インストール手順(ComfyUI経由が最も簡単)
方法1:ComfyUIで使う(推奨)
ComfyUIのManager経由でWan2.1ノードをインストールするのが最も手軽です。モデルファイルはHugging FaceからWanVideo-Wrapper形式でダウンロードします。
方法2:公式リポジトリから直接実行
Wan-AIの公式GitHubリポジトリをクローンし、依存関係をインストールして実行する方法です。Pythonの環境管理(conda/venv)の知識が必要です。
動画生成の基本パラメータ設定
- 解像度:480×832(縦)または 832×480(横)が標準
- フレーム数:81フレーム(約3秒、25fps換算)が標準
- ステップ数:50ステップが品質と速度のバランス最適
- CFGスケール:5〜7が推奨
生成速度の目安
RTX 4090(24GB)でT2V-14Bを使った場合、480p・5秒の動画生成に約3〜5分かかります。1.3Bモデルなら同環境で30秒〜1分程度です。
よくある質問(FAQ)
Q. VRAM不足エラーが出る場合は?
A. attention_modeを「sageattn」に変更するか、解像度を下げてください。またT2V-1.3Bモデルに切り替えるのも有効です。
Q. Windowsでも動きますか?
A. WSL2(Windows Subsystem for Linux)経由での動作実績があります。ネイティブWindowsよりもWSL2推奨です。
Q. MPS(Mac GPU)には対応していますか?
A. 現時点では公式サポートなし。CPUモードでの実行は可能ですが非常に低速です。
関連記事
\ この記事を読んだあなたにおすすめ /
🎁 AI動画ツール完全カタログ
PDF32ページ 無料プレゼント
Sora・Kling・Runway・Veo の最新活用法を32ページにまとめた
無料カタログ+AI診断アプリ付き

コメント