Windows環境でComfyUIをインストールし、画像生成を始めるまでの手順を解説します。
敷居が高い印象のComfyUIですがポータブル版を利用することで簡単にインストールでき、無料で何枚でも生成できるので、これからAIによる画像生成を体験したい初心者におすすめしたいツールです。

ComfyUIとは?
ComfyUIとは
Stable Diffusionモデルを使った画像生成ワークフローを視覚的に構築できるツールです。
ノードといわれるブロックをつなぎ合わせるインターフェースを採用しており、複雑な設定や処理を簡単に組み立てられるのが特徴です。
ComfyUIを導入するメリットとデメリット
メリット
- 柔軟なノードベースのワークフロー
- ComfyUIはノードベースのインターフェースを採用しており、画像生成プロセスを視覚的に制御できます。
- 各ステップを細かくカスタマイズできるため、高度なワークフローを構築可能です。
- 高い拡張性
- ノードを追加することで、自由にパイプラインを拡張可能です。
- カスタムスクリプトや新しい機能を簡単に統合できます。
- 精密な制御
- 各ノードで生成パラメータを調整できるため、細部まで理想の画像生成が可能です。
- 特定のノードを再利用したり、複数の出力を比較できます。
- 視覚的な理解のしやすさ
- 複雑なプロセスをノードグラフとして視覚的に把握できるため、初心者でもプロセスを追いやすいです。
- オープンソース
- GitHubでソースコードが公開されており、コミュニティによる活発な開発が進行中です。
- 無料で利用できる点も大きな利点です。
デメリット
- 初期学習コストが高い
- ノードベースのインターフェースに慣れていない場合、操作が直感的に感じられない可能性があります。
- 動作環境の要件
- NVIDIA GPUを推奨しており、CPUモードでは非常に処理速度が遅くなります。
- 高性能なハードウェアが必要な場合があります。
- リアルタイムプレビューが難しい
- Web UIに比べて、結果を即座に確認しながらの調整が少し手間です。
- 公式ドキュメントの少なさ
- 公式のドキュメントがまだ充実しておらず、コミュニティやGitHub Issuesを参照する必要があることが多いです。
- モデルや拡張機能の互換性
- 一部のWeb UI専用プラグインや機能が使用できない場合があります。
ComfyUIとWeb UIの主な違い
※今回はノードベースのUIをComfy UI、伝統的なフォームベースのUIをWeb UI (AUTOMATIC1111)という意味でお願いします
特徴 | Comfy UI | Web UI (AUTOMATIC1111) |
---|---|---|
インターフェース | ノードベースで高度にカスタマイズ可能 | シンプルなGUIで初心者にも分かりやすい |
操作性 | 視覚的でフローを完全に制御できる | 簡単なボタン操作で結果をすぐ確認可能 |
学習コスト | 高い(ノードの仕組みを理解する必要がある) | 低い(直感的な操作が可能) |
拡張性 | 自由度が非常に高い | プラグインである程度拡張可能 |
処理速度 | ハードウェアに依存 | 最適化されており高速 |
リアルタイム性 | プレビューには一手間かかる | 画面上ですぐ確認可能 |
利用目的 | 高度なプロジェクトや研究向け | 初心者や手軽な画像生成向け |
事前準備
ComfyUIをWindowsで利用するには、以下の環境が必要です。
- 対応するハードウェアとソフトウェア環境
- GPU: NVIDIA製GPU(CUDA 12.1対応)が推奨
- OS: Windows 10/11
- VRAM: 6GB以上(8GB以上推奨)
- インストールに必要なソフトウェア
- 7-Zip(ファイル解凍用)
7-Zip公式サイトから最新バージョンをダウンロードしてインストールしてください。
- 7-Zip(ファイル解凍用)
ComfyUIのインストール方法
今回は、ComfyUIポータブル版を使用してインストールを行います。ポータブル版とは、必要なPython環境や関連ファイルがすべてセットになった簡易インストール形式のパッケージです。
- Pythonの個別インストールが不要で、初めての方でも簡単に導入可能。
- ダウンロードして解凍するだけで、動作環境が整います。
- 複雑な設定やコマンド操作を最小限に抑えられます。
このため、初心者にも分かりやすく、迅速にComfyUIを利用開始できます。
ComfyUIの公式GitHubページにアクセス
ブラウザで ComfyUI GitHub公式ページ を開きます。
ポータブル版をダウンロード
ページを下にスクロールし、「Installing」セクションを探します。
「Direct link to download」をクリックします。

「ComfyUI_windows_portable_nvidia_cu121_or_cpu.7z」ファイルが
「ダウンロード」フォルダにダウンロードされます。
ダウンロードしたファイルを解凍
7-Zip(解凍ソフト)を使用して、ファイルを解凍します。

解凍先は覚えやすい場所(例: Cドライブ直下)を選びます。
モデルファイルをダウンロード
モデルとは?
テキスト入力から画像を生成するために画像を学習したファイルです。これらのモデルは、大量の画像とテキストのペアでトレーニングされており、ユーザーが入力したテキストプロンプトを基に、視覚的要素を組み合わせて新しい画像を作り出します。つまり、このファイルがないと画像生成を行えません。
今回はテスト用(推奨)モデルとしてv1.5-pruned-emaonly-fp16.safetensorsをダウンロードします。
v1.5-pruned-emaonly-fp16.safetensorsは計算の効率を高めるためにプルーニング(不要な部分を削除すること)が施されています。このモデルは軽量であるため、ディスクスペースやメモリ使用量が少ないので、今回テスト画像生成用のモデルとしてダウンロードします。
「download」をクリックします。
モデルファイルを配置
使用するStable Diffusionのモデルファイル(.safetensors形式)は、解凍したフォルダ内のComfyUI_windows_portable\ComfyUI\models\checkpoints
に配置します。

これでComfyUIを起動する準備が整いました。
ComfyUIを起動
解凍したフォルダ内のrun_nvidia_gpu.bat
をダブルクリックします。
※CPUのみの場合はrun_cpu.bat
をダブルクリックします(通常はGPUを使用します)

コマンドプロンプト(黒いウィンドウ)が開きます。
初回の実行などで必要なファイルがある場合は自動でダウンロードされますので暫く待ちます。

ブラウザでComfyUIにアクセス

コマンドプロンプトに「To see the GUI go to: http://127.0.0.1:8188」と表示されたら、ブラウザでこのアドレスを開きます。
ブラウザ上でComfyUIのインターフェースが表示されます。
ComfyUIの動作確認
Comfy UIは起動した状態で既にサンプルの画が生成できる設定になっています。
動作確認も兼ねて、早速サンプル画像を生成してみましょう!

画面下方の▷Queue をクリックします。

コマンドプロンプトに進行状況が表示されます。

画像が生成されるまで暫く待ちます。

一番右側のノードに画像が生成されれば成功です。

エラーが表示される場合
- モデルファイルが正しいフォルダに配置されているか確認します。
ComfyUI\models\checkpoints
にモデルファイル(v1.5-pruned-emaonly-fp16.safetensors)を配置して再起動します。 - Load Checkpointノードのckpt_nameにモデルファイル(v1.5-pruned-emaonly-fp16.safetensors)が指定されているか確認します。

これでComfyUIのインストールは完了です。お疲れさまでした。
画像データの保存場所
生成された画像データは
ComfyUI_windows_portable\ComfyUI\output
の中に格納されます。

その他
ComfyUIの更新方法
- コードのみを更新
update\update_comfyui.bat
を実行します。 - Python依存関係も含めて更新
問題が発生した場合のみ、update\update_comfyui_and_python_dependencies.bat
を実行してください。
他のUIとモデルを共有する方法
extra_model_paths.yaml.example
をextra_model_paths.yaml
にリネームしてください。- 好きなテキストエディタで開き、他のUIで使用しているモデルのパスを設定します。